Почему мы помним. Как раскрыть способность памяти удерживать важное. Чаран Ранганат. Читать онлайн. Newlib. NEWLIB.NET

Автор: Чаран Ранганат
Издательство: Издательство АСТ
Серия: Элементы 2.0
Жанр произведения:
Год издания: 2024
isbn: 978-5-17-163454-4
Скачать книгу
о том, что мы способны перезагружать сознание до состояния, в котором оно пребывало во время события в прошлом. Эпизодическая память – не просто вспоминание: она соединяет нас с мимолетными мгновениями прошлого, которые делают нас теми, кто мы есть сейчас.

      Люди – роботы: 1:0

      Разница между эпизодической и семантической памятью – основной фактор, позволяющий людям так быстро и эффективно учиться. Одно из свидетельств в пользу этого, как это ни странно, обнаруживается в исследованиях того, какие виды научения особенно трудно даются машинам. Многие продвинутые программы с искусственным интеллектом – от умных помощников вроде Алексы и Сири до прошивки беспилотных автомобилей – основаны на «нейронных сетях» – алгоритмах, которые в абстрактном виде воспроизводят научение так, как оно устроено в мозге[42]. Каждый раз, когда нейронная сеть при тренировке заучивает некий факт, меняются связи между ее смоделированными нейронами. По мере того как сеть выучивает все больше фактов, смоделированные клеточные ансамбли постоянно перекомпоновываются, голосуя уже не за отдельный выученный факт, а отражая целую категорию знания. Так, например, вы можете научить сеть следующему:

      «Орел – птица. У него есть перья, крылья и клюв. Он летает».

      «Ворон – птица. У него есть перья, крылья и клюв. Он летает».

      «Сокол – птица. У него есть перья, крылья и клюв. Он летает».

      Со временем компьютерная модель все лучше учится фактам о новых птицах, так как опирается на уже известное. Если сеть узнает, что чайка – птица, клеточные ансамбли могут заполнить пропуски и догадаться, что чайка умеет летать. Но что, если научить ее чему-то другому?

      «Пингвин – птица. У него есть перья, крылья и клюв. Он плавает».

      Теперь у машины возникнут сложности: пингвин отвечает всем признакам птицы, кроме одного. Пингвин – исключение из правила, согласно которому все птицы летают, так что, когда компьютер выучит исключение, он забудет то, что выучил раньше о признаках птиц. Это называется катастрофической помехой, и для машинного обучения это действительно катастрофа. Решение состоит в том, чтобы учить машину очень медленно: тогда, выучив исключение, она не будет тут же отказываться от правила. Это значит, что для эффективного выполнения задач нейронным сетям нужно очень много тренироваться и им плохо удается быстро приспосабливаться к сложности реального мира. Даже в наши дни самые сложные воплощения искусственного интеллекта нужно тренировать на колоссальных объемах данных, прежде чем они будут способны произвести что-то интересное.

      Люди, как и описанные выше нейронные сети, отлично извлекают общие знания из прошлого опыта, так что мы можем делать предположения и допущения о ситуациях в будущем («Это смахивает на птицу, так что можно ожидать, что оно улетит»). Но, в отличие от машин, мы не даем сбой при каждом столкновении с отклонениями, потому что у нас есть еще и эпизодическая память. Она не предназначена


<p>42</p>

Нейронные сети были отчасти вдохновлены идеями из статьи нейрофизиолога Уоррена Маккалока и математика Уолтера Питтса (1943), которые смоделировали простую сеть нейронов с помощью электрических схем. Еще один ключевой вклад внес Дональд Хебб (1949), ученый-новатор (и соруководитель Бренды Милнер), который предположил, что воспоминания хранятся в сетях плотно взаимосвязанных нейронов и что это происходит потому, что обучение вызывает систематическое усиление и ослабление связей между определенными наборами нейронов. Основываясь на идеях Хебба, Марр (1971) предложил инновационную вычислительную модель «простой памяти», основанную на биологии гиппокампа. Марр предположил, что гиппокамп может быть необходим для кодирования конкретной информации, а неокортекс может обобщать опыт. В начале восьмидесятых многие психологи, в том числе Джей Макклелланд, Дональд Румельхарт и PDP Research Group (1986), использовали нейронные сети для объяснения многих феноменов обучения. Однако в 1988 году Гейл Карпентер и Стивен Гроссберг указали на значительную проблему, которую они назвали дилеммой стабильности-пластичности. Дилемма заключается главным образом в компромиссе между изучением новой информации и потерей ранее изученного: как создать сеть, которая может обучаться на единичном необычном случае, не теряя всех предыдущих достижений? Майк Макклоски и Нил Коэн (1989) провели ряд симуляций, иллюстрирующих сложность этой задачи, и придумали термин «катастрофическая интерференция». В 1995 году Джей Макклелланд, Брюс Макнотон и Рэнди О'Рейли опубликовали статью, предполагающую, что мозг развил различные «комплементарные системы обучения» для решения дилеммы стабильности-пластичности. В частности, они основывались на предположении Марра (1971) о том, что гиппокамп может быстро учиться на единичных примерах, но не очень хорош в обобщении, тогда как неокортекс учится медленно, но, как и традиционные нейронные сети, хорошо обобщает опыт. Как я расскажу позже в этой книге, авторы предположили, что гиппокамп может «общаться» с неокортексом во время сна, помогая тому учиться быстрее без катастрофической интерференции. Если что, я понятия не имею, почему у стольких людей, на которых я здесь ссылаюсь, фамилии начинаются на «Мак».