Нейросети. Обработка естественного языка. Джейд Картер. Читать онлайн. Newlib. NEWLIB.NET

Автор: Джейд Картер
Издательство: Автор
Серия:
Жанр произведения:
Год издания: 2023
isbn:
Скачать книгу
Преобразуем метки в массив numpy

      labels = np.array(labels)

      # Создаем модель CNN

      model = tf.keras.Sequential([

      tf.keras.layers.Embedding(input_dim=1000, output_dim=16, input_length=max_sequence_length),

      tf.keras.layers.Conv1D(128, 3, activation='relu'), # Уменьшили размер ядра до 3

      tf.keras.layers.GlobalMaxPooling1D(),

      tf.keras.layers.Dense(1, activation='sigmoid')

      ])

      # Компилируем модель

      model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])

      # Обучаем модель

      history = model.fit(padded_sequences, labels, epochs=10, verbose=1)

      # Оцениваем модель на тестовых данных

      test_texts = ["Это лучшая книга.", "Не стоит тратить деньги.", "Мне понравился фильм.", "Ужасное качество товара."]

      test_labels = [1, 0, 1, 0] # Метки для тестовых данных

      test_sequences = tokenizer.texts_to_sequences(test_texts)

      padded_test_sequences = tf.keras.preprocessing.sequence.pad_sequences(test_sequences, maxlen=max_sequence_length)

      test_labels = np.array(test_labels)

      test_loss, test_accuracy = model.evaluate(padded_test_sequences, test_labels)

      print(f"Точность на тестовых данных: {test_accuracy:.4f}")

      # Визуализация результатов

      plt.figure(figsize=(12, 4))

      plt.subplot(1, 2, 1)

      plt.plot(history.history['accuracy'], label='Точность на обучении')

      plt.xlabel('Эпохи')

      plt.ylabel('Точность')

      plt.legend()

      plt.subplot(1, 2, 2)

      plt.plot(history.history['loss'], label='Потери на обучении')

      plt.xlabel('Эпохи')

      plt.ylabel('Потери')

      plt.legend()

      plt.show()

      На графиках, полученных после выполнения предоставленного кода, вы увидите результаты обучения и оценку модели. Давайте разберем подробнее:

      1. График точности на обучении (Точность на обучении): Этот график показывает, как точность модели изменяется в течение эпох обучения. Точность на обучении измеряет, как хорошо модель предсказывает данные обучения. Вы ожидаете, что точность будет увеличиваться с каждой эпохой. Если точность растет, это может указывать на то, что модель успешно изучает данные.

      2. График потерь на обучении (Потери на обучении): Этот график отражает, как уменьшается потеря модели на обучении с течением эпох. Потери представляют собой меру того, насколько сильно предсказания модели отличаются от фактических меток. Цель – минимизировать потери. Уменьшение потерь также указывает на успешное обучение модели.

      На практике хорошо обученная модель будет иметь следующие характеристики:

      – Точность на обучении растет и стабилизируется на определенном уровне.

      – Потери на обучении уменьшаются и стабилизируются на низком уровне.

      Если точность на тестовых данных также высока, это означает, что модель успешно обобщает знания на новые, ранее не виденные данные.

      На графиках, представленных в коде, вы сможете оценить, как точность и потери меняются с течением эпох, и определить успешность обучения модели.

      Кроме того, существуют более сложные архитектуры, которые комбинируют RNN и CNN, чтобы использовать преимущества обоих типов сетей. Например, архитектура под названием Transformer, изначально разработанная для машинного перевода, стала основой для многих современных моделей в NLP, таких как BERT и GPT.

      Архитектура Transformer представляет собой мощный прорыв в области обработки естественного языка (NLP) и обработки последовательностей в целом. Она представляет собой нейронную сеть, спроектированную специально для работы с последовательностями, и она имеет ряд ключевых особенностей:

      1. Механизм внимания: Одной из ключевых особенностей Transformer является