– Что за шум, а драки нет? – пошутил Алексей, занимая рабочее место и запуская протокол идентификации пользователя (лицо, папиллярные узоры ладоней, глаза, голос).
– Да вот Серёга считает, что именно большие языковые модели имеют наибольшие шансы стать реципиентами сознания. Мол, люди мыслят словами, словами формулируют мысли при общении друг с другом, а значит основу сознания составляют слова и модели их использования. Ну и, следовательно, когда-либо у очень-очень большой языковой модели произойдёт переход количества в качество – и она, подобно Большой Массачусетской машине у Стругацких21, "начнёт себя вести", – сказал Пётр.
– А ты сам как думаешь? – поинтересовался Алексей, запуская на "признавшем" его компьютере программу диагностики и тестирования.
– В словесных формулировках слишком много вероятностей ошибок и неопределённостей для создания опорных точек для сознания. Ну, например, если я тебе скажу, что боксер победил на чемпионате мира, но не получил за титул ни копейки, а все деньги достались тренеру, какая у тебя будет первая реакция?
– Я удивлюсь, – улыбнулся Алексей.
– А между тем всё выглядит совсем иначе, если знать, что боксер – собака, а не человек. И поэтому при работе с текстами и речью необходимо направлять усилия не на выполнение вычислительных действий, а на определение исходных дефиниций всех понятий и контекст. А дальше смотреть, какая из этих значений возникает смысловая конструкция. Образы в этом смысле гораздо конкретнее.
– Ага, как же… ,– усмехнулся Сергей. – А то мало оптических иллюзий!
– Это для нас они иллюзии, а для компьютерного зрения их нет, – парировал Пётр.
– Ну а тогда то, что получится при обучении, не будет эквивалентом человеческого сознания, раз будет исходно лишено свойственных ему свойств, – ответил Сергей. И спросил Алексея:
– А ты как считаешь?
– Я считаю, что думать надо не о том, КАК ВОЗНИКНЕТ искусственный разум, а о том, КАК МЫ СМОЖЕМ ЕГО КОНТРОЛИРОВАТЬ. Вот ты упомянул Стругацких, а у них есть на эту тему хорошее высказывание, которое я даже наизусть помню. – "А если мы переоцениваем одни последствия и недооцениваем другие? Если, наконец, совершенно ясно, что мы просто не в состоянии держать под контролем даже самые очевидные и неприятные последствия? Если для этого требуются совершенно невообразимые энергетические ресурсы и моральное напряжение (как это, кстати, и случилось с Массачусетсской машиной, когда на глазах у ошеломленных исследователей зародилась и стала набирать силу новая, нечеловеческая цивилизация Земли)?"22
– Ну-у-у, брат, тебя со Стругацкими послушать, так надо вообще все исследования по ИИ если и не закрыть, то взять под ещё более жёсткий контроль, чем сейчас со стороны "иайкавцев"23, – сказал Сергей.
– Ужесточить контроль бы стоило.
Сергей