Весна ИИ
Весеннее обострение
Вы когда-нибудь выкладывали на YouTube видеоролик со своим котом? Если да, то вы не одиноки. На YouTube загружено более миллиарда видеороликов, и во многих из них фигурируют коты. В 2012 году специалисты по ИИ из Google сконструировали многослойную нейронную сеть, имеющую более миллиарда весов, которая “просматривала” миллионы случайных видеороликов на YouTube и корректировала веса таким образом, чтобы успешно сжимать, а затем распаковывать избранные кадры. Исследователи Google не ставили системе задачу приобретать знания о конкретных объектах, но что же они обнаружили через неделю тренировки, заглянув в структуру сети? Там нашелся “нейрон” (или ячейка), который, судя по всему, отвечал за кодирование котов[49]. Эта машина-самоучка по распознаванию котов стала одним из целой серии впечатляющих прорывов ИИ, привлекших внимание публики в последнее десятилетие. В основе большей их части лежит набор алгоритмов нейронных сетей, называемый глубоким обучением.
До недавних пор представления общества об ИИ в основном формировались многочисленными фильмами и телесериалами, где ИИ был настоящей звездой, – вспомните “Космическую одиссею 2001 года” или “Терминатора”. В реальном мире мы не замечали ИИ ни в прессе, ни в повседневной жизни. Если вы росли в 1990-е или ранее, возможно, вы помните удручающее взаимодействие с системами распознавания речи при обращении в службы поддержки, роботизированную игрушку Furby, способную запоминать слова, или надоедливого и бесполезного Скрепыша, виртуального помощника в виде скрепки, созданного компанией Microsoft. Тогда еще не верилось, что появление полноценного ИИ не за горами.
Возможно, именно поэтому многие удивились и расстроились, когда в 1997 году шахматная программа Deep Blue, разработанная компанией IBM, победила чемпиона мира по шахматам Гарри Каспарова. Потрясенный Каспаров даже обвинил IBM в жульничестве, полагая, что машина не может так хорошо играть в шахматы, не получая помощи от экспертов[50]. (По иронии судьбы на Чемпионате мира по шахматам в 2006 году ситуация изменилась, когда один из участников обвинил другого в жульничестве, решив, что тот получает подсказки от компьютерной шахматной программы[51].)
Наш коллективный человеческий страх перед Deep Blue быстро рассеялся. Мы смирились с тем, что шахматы поддались машине, использующей метод “полного перебора”, и даже допустили, что умение хорошо играть в шахматы вовсе не требует общей интеллектуальной одаренности. Когда компьютеры превосходят людей в каком-либо деле, мы обычно реагируем именно так: приходим к выводу, что для успешного выполнения этой задачи большого ума не надо. “Когда все работает исправно, никто уже не называет это ИИ”, – сокрушался Джон Маккарти[52].
Однако с середины 2000-х годов мы стали узнавать о новых достижениях ИИ, а затем его успехи понеслись друг за другом с головокружительной скоростью. Google запустила сервис автоматического перевода с языка на язык, “Google Переводчик”. Он был несовершенен, но работал на удивление сносно, а впоследствии стал значительно лучше. Вскоре после этого на дороги Северной Калифорнии выехали беспилотные автомобили Google, осторожные и робкие, но все же самостоятельно передвигающиеся в потоке. В наших телефонах и домах появились такие виртуальные помощники, как Siri от Apple и Alexa от Amazon, которые научились обрабатывать многие голосовые запросы. YouTube стал предоставлять поразительно точные автоматизированные субтитры к видеороликам, а Skype предложил синхронный перевод с одного языка на другой во время видеозвонков. Facebook вдруг стал с пугающей точностью узнавать вас на загружаемых фотографиях, а фотохостинг Flickr начал автоматически генерировать текстовое описание фотоснимков.
В 2011 году разработанная IBM программа Watson уверенно выиграла у чемпионов телеигры Jeopardy!, умело интерпретируя подсказки, изобилующие игрой слов. Наблюдая за этим, ее противник Кен Дженнингс счел нужным “поприветствовать наших новых компьютерных владык”. Всего пять лет спустя миллионы интернет-пользователей вникали в премудрости игры го, издавна неприступной для искусственного интеллекта, когда программа AlphaGo в четырех партиях из пяти одержала блестящую победу над одним из лучших игроков мира.
Шумиха вокруг искусственного интеллекта быстро стала оглушительной, и деловой мир обратил на это внимание. Все крупнейшие технологические компании направили миллиарды долларов на исследование и разработку ИИ, непосредственно нанимая специалистов по ИИ или приобретая небольшие стартапы с единственной целью заполучить их талантливых сотрудников. Потенциальная возможность таких сделок, мгновенно делающих основателей стартапа миллионерами, привела к появлению множества стартапов, часто финансируемых и управляемых бывшими университетскими преподавателями, у каждого из которых был свой подход к ИИ. Журналист Кевин Келли, освещающий новости мира технологий, заметил: “Несложно представить, какими будут бизнес-планы следующих 10 000 стартапов: возьмем что-нибудь и добавим ИИ”[53]. Важно подчеркнуть, что почти все эти компании понимали под ИИ глубокое обучение.
Так расцвела очередная весна ИИ.
ИИ: ограниченный и общий, слабый и сильный
Как и в любую из прошлых весен ИИ, сегодня эксперты предсказывают, что “общий ИИ” – тот, который по большинству параметров находится на одном уровне с человеческим разумом или превосходит его, – не заставит себя ждать. “ИИ человеческого уровня появится в середине 2020-х годов”, – предрек Шейн Легг, один из основателей Google DeepMind, в 2008 году[54]. В 2015 году генеральный директор Facebook Марк Цукерберг заявил: “В следующие пять-десять лет мы среди прочего ставим перед собой цель превзойти возможности человека в основных областях восприятия: зрении, слухе, речи, мышлении в целом”[55]. Философы ИИ Винсент Мюллер и Ник Бостром опубликовали результаты проведенного в 2013 году опроса исследователей, в котором многие заявили о пятидесятипроцентной вероятности появления ИИ человеческого уровня к 2040 году[56].
Хотя этот оптимизм во многом основан на недавних успехах глубокого обучения, эти программы – как и все системы ИИ, разработанные до сих пор, – относятся к сфере так называемого ограниченного, или слабого, ИИ. Эти термины не столь уничижительны, как кажется: они просто обозначают систему, которая может выполнять лишь одну узкую задачу (или небольшой набор родственных задач). Возможно, AlphaGo лучше всех в мире играет в го, но больше она ничего не умеет: она не умеет играть ни в шашки, ни в крестики-нолики. “Google Переводчик” может перевести английскую рецензию на фильм на китайский, но не может сказать, понравился ли фильм рецензенту, и уж точно не сумеет сам посмотреть этот фильм и написать о нем отзыв.
Термины “ограниченный” и “слабый” используются в противовес “сильному”, “общему”, “полноценному”, или ИИ “человеческого уровня”, то есть искусственному интеллекту из кино, который умеет почти все, что умеют люди, или даже гораздо больше. Возможно, изначально исследователи ставили своей целью разработку общего ИИ, но создать его оказалось гораздо сложнее, чем ожидалось. Со временем работа над ИИ свелась к решению конкретных, четко определенных задач по распознаванию речи, игре в шахматы, беспилотному вождению и так далее. Создание машин, которые выполняют эти функции, полезно и часто прибыльно, и можно сказать, что при решении каждой из этих задач необходимо задействовать “разум”. Но пока еще не создана ни одна ИИ-программа, которую можно было бы назвать разумной в общем смысле. Это хорошо описано в недавней оценке состояния отрасли: “Множество ограниченных интеллектов никогда не составят в сумме общий интеллект. В общем интеллекте важно не количество навыков, а интеграция этих навыков”[57].
Постойте. Учитывая, что ограниченных интеллектов становится все больше, сколько времени должно пройти, прежде чем кто-нибудь найдет способ комбинировать их, воссоздавая широкие, глубокие и тонкие характеристики человеческого разума? Стоит ли верить когнитивисту Стивену Пинкеру, который считает, что ничего особенного не происходит? “До появления ИИ человеческого уровня по-прежнему остается от пятнадцати до двадцати пяти лет, как это было всегда, а многие его хваленые успехи поверхностны”, – отметил Пинкер[58]. Или же нам стоит прислушаться к оптимистам ИИ, которые уверены, что на этот раз, в эту весну ИИ, все будет иначе?
Неудивительно, что в среде исследователей ИИ бытуют значительные разногласия по вопросу о том, что означает “ИИ человеческого уровня”. Как понять, удалось ли нам сконструировать “думающую машину”? Нужны ли такой системе сознание или самоосознание, которыми обладают люди? Должна ли она понимать вещи так же, как их понимает человек? Учитывая, что речь идет о машине, не будет ли корректнее говорить, что она “моделирует мышление”, или же можно утверждать, что она действительно мыслит?
Могут ли машины мыслить?
Подобные философские вопросы терзают сферу ИИ с самого ее возникновения. Британский математик Алан Тьюринг, разработавший в 1930-х годах первую концепцию программируемого компьютера, в 1950 году опубликовал статью, в которой спросил, что мы имеем в виду, когда задаем вопрос: “Могут ли машины мыслить?” Предложив свою знаменитую “имитационную игру” (которая сегодня называется тестом Тьюринга и подробнее о которой я расскажу ниже), Тьюринг перечислил девять возможных аргументов против создания действительно мыслящей машины и попытался их опровергнуть. Предполагаемые аргументы варьируются в диапазоне от теологического – “Мышление – это функция бессмертной человеческой души. Бог наделил бессмертными душами всех мужчин и женщин, но не дал их ни другим животным, ни машинам. Следовательно, ни животные, ни машины не могут мыслить”, – до экстрасенсорного, который звучит примерно так: “Люди могут телепатически общаться друг с другом, а машины не могут”. Как ни странно, Тьюринг признал последний аргумент “довольно сильным”, потому что “статистических наблюдений, по крайней мере о телепатии, несметное множество”.
По прошествии нескольких десятилетий лично я считаю самым сильным из вероятных аргументов Тьюринга “возражение с точки зрения сознания”, которое он формулирует, цитируя невролога Джеффри Джефферсона:
Пока машина не сможет написать сонет или сочинить концерт, побуждаемая мыслями и чувствами, а не случайной последовательностью символов, мы не сможем согласиться с тем, что машина тождественна мозгу, то есть что она не только пишет эти вещи, но и понимает, что это она их написала. Ни один механизм не может чувствовать (а не просто искусственно сигнализировать, что не требует сложного устройства) радость от своих успехов, печалиться при расплавлении клапанов, получать удовольствие от лести, огорчаться из-за ошибок, увлекаться противоположным полом и злиться или расстраиваться, когда ему не удается получить желаемое[59].
Обратите внимание, что в этом аргументе говорится следующее: 1) только когда машина чувствует и сознает собственные действия и чувства – иными словами, когда она обладает сознанием, – мы можем считать, что она действительно мыслит; 2) ни одна машина никогда не будет на это способна. Следовательно, ни одна машина никогда не сможет мыслить по-настоящему.
Я считаю, это сильный аргумент, хотя и не соглашаюсь с ним. Он перекликается с нашими интуитивными представлениями о машинах и пределах их возможностей. Я обсуждала возможность создания машинного интеллекта с огромным количеством друзей, родственников и студентов, и многие из них приводили этот аргумент. Например, недавно моя мама, юрист на пенсии, прочитала в The New York Times статью об успехах “Google Переводчика”, и у нас состоялся такой разговор:
Мама: Проблема в том, что люди в сфере ИИ слишком много антропоморфизируют!
Я: Что ты имеешь в виду?
Мама: Они говорят так, словно машины могут мыслить по-настоящему, а не просто моделировать мышление.
Я: В чем разница между тем, чтобы “мыслить по-настоящему” и “моделировать мышление”?
Мама: По-настоящему мыслят при помощи мозга, а моделируют мышление при помощи компьютеров.
Я: Что особенного в мозге, что позволяет ему мыслить “по-настоящему”? Чего не хватает компьютерам?
Мама: Не знаю. Думаю, в мышлении есть нечто человеческое, что компьютеры никогда не смогут полностью воссоздать.
Так считает не только моя мама. Многим людям это кажется столь очевидным, что не требует объяснений. Как и многие из этих людей, моя мама причислила бы себя к сторонникам философского материализма: она не верит в существование нефизической “души”, или “жизненной силы”, которая наделяет живых существ разумом. Она просто считает, что машины никогда не будут в состоянии “мыслить по-настоящему”.
В научных кругах самую знаменитую версию этого аргумента предложил философ Джон Сёрл. В 1980 году Сёрл опубликовал статью “Разум, мозг и программы”[60], в которой заявил о своем категорическом несогласии с тем, что машины могут “мыслить по-настоящему”. В этой популярной и неоднозначной статье Сёрл ввел концепции “сильного” и “слабого” искусственного интеллекта, чтобы провести черту между двумя философскими утверждениями о программах ИИ. Хотя сегодня люди в основном называют сильным “ИИ, способный выполнять большинство задач на человеческом уровне”, а слабым – уже существующий ограниченный ИИ, Сёрл использовал эти термины иначе. В представлении Сёрла, ИИ можно назвать сильным, если “должным образом запрограммированный цифровой компьютер не просто моделирует разум, а в буквальном смысле обладает разумом”[61]. Примерами слабого ИИ Сёрл, напротив, считал компьютеры, которые используются для моделирования человеческого разума, но не обладают разумом “в буквальном смысле”[62]. И здесь мы возвращаемся к философскому вопросу, который я обсуждала с мамой: есть ли разница между “моделированием разума” и “обладанием разумом в буквальном смысле”? Как и моя мама, Сёрл полагает, что эта разница принципиальна, и заявил, что сильный ИИ невозможен даже в теории[63].
Тест Тьюринга
Статью Сёрла отчасти вдохновила опубликованная в 1950 году статья Алана Тьюринга “Вычислительные машины и разум”, в которой Тьюринг предложил способ разрубить гордиев узел “моделированного” и “настоящего” разума. Заявив, что “исходный вопрос «Может ли машина мыслить?» лишен смысла, а потому не заслуживает обсуждения”, Тьюринг предложил практический метод, чтобы наделить его смыслом. В его “имитационной игре”, ныне называемой тестом Тьюринга, два участника: компьютер и человек. Каждому из них по отдельности задает вопросы человек-судья, который пытается определить, кто есть кто. Судья физически не взаимодействует с участниками игры, а потому не может опираться на визуальные и слуховые подсказки. Все общение происходит при помощи печатного текста.
Тьюринг предложил следующее: “Вопрос «Могут ли машины мыслить?» нужно заменить вопросом «Можно ли вообразить такой цифровой компьютер, который сможет выиграть в имитационной игре?»” Иными словами, если компьютер достаточно похож на человека, чтобы быть неотличимым от людей, когда в расчет не принимаются его внешний вид и голос (а если уж на то пошло, то не учитывается также, как он пахнет и какой он на ощупь), то почему бы нам не считать, что он мыслит по-настоящему? Почему мы готовы признать “мыслящей” лишь такую сущность, которая состоит из конкретного материала (например, биологических клеток)? Как отметил без лишних церемоний информатик Скотт Ааронсон, предложение Тьюринга стало “выпадом против мясного шовинизма”[64].
Но дьявол всегда в деталях, и тест Тьюринга не исключение. Тьюринг не обозначил критерии для выбора участника-человека и судьи, а также не определил, как долго должен продолжаться тест и на какие темы позволено говорить участникам. При этом он сделал удивительно специфический прогноз: “Полагаю, лет через пятьдесят появится возможность программировать компьютеры таким образом… что они станут справляться с имитационной игрой настолько успешно, что вероятность верной идентификации после пяти минут расспросов для среднего судьи не будет превышать 70 %”. Иными словами, за пять минут игры среднего судью будут обманывать в 30 % случаев.
Прогноз Тьюринга оказался довольно точным. За прошедшие годы проводилось несколько тестов Тьюринга, в которых роль компьютера выполняли чат-боты – программы, созданные специально для поддержания разговора (больше они ничего не умеют). В 2014 году в Лондонском королевском обществе состоялся тест Тьюринга с участием пяти компьютерных программ, тридцати участников-людей и тридцати судей разных возрастов и профессий, включая специалистов и неспециалистов по компьютерным технологиям, а также носителей английского языка и людей, для которых он был неродным. Каждый судья проводил несколько пятиминутных разговоров, в которых параллельно общался (печатая текст) с двумя участниками – человеком и машиной, – а затем должен был определить, кто есть кто. Чат-бот Женя Густман, созданный группой российских и украинских программистов, выиграл соревнование, обманув десять (или 33,3 %) судей. Организаторы соревнования, следуя критерию Тьюринга об “обмане более 30 % судей за пять минут”, наводнили прессу сообщениями о том, что тест Тьюринга наконец-то оказался пройден.
Чат-бот Женя Густман работает аналогично большинству других чат-ботов. Он хранит большой набор шаблонов фраз, которые заполняет на основе запрограммированных правил, применяющихся к входному тексту – реплике собеседника. Создатели чат-бота разработали для него лингвистические правила, которые позволяют ему выделять ключевую информацию из входного сигнала и сохранять ее для последующего использования. Кроме того, чат-бот хранит базу данных “здравого смысла”, созданную людьми, а также некоторые логические правила, которые, вероятно, позволяют ему отвечать на такие вопросы, как “Какого цвета небо во Владивостоке?”, вполне по-человечески, например: “Синее, наверное, если нет облаков”. Если ни одно из правил чат-бота неприменимо к входному сигналу, он просто меняет тему. Правила системы также определяют ее “личность” – в данном случае это тринадцатилетний украинский мальчик, который хорошо, но не идеально (что особенно удобно) владеет английским. Вот отрывок из беседы Жени Густмана с одним из судей, которого он обманул:
Судья: Какого ты пола
Женя: Раз уж вы спрашиваете, я мальчик. Кстати, даже не урод!
Судья: что ты знаешь в данный момент
Женя: Я предпочел бы об этом не говорить, если вы не возражаете. Можете сказать мне, кто вы? Я имею в виду, по профессии.
Судья: сколько тебе лет
Женя: Я мальчик 13 лет.
Судья: что ты умеешь
Женя: Что я умею? Я вам этого не скажу. О-ох. Еще вопросы есть?[65]
После соревнования организаторы выпустили пресс-релиз, в котором объявили: “Компьютерная программа Женя Густман впервые прошла легендарный тест Тьюринга, предложенный 65 лет назад”. Они добавили: “Неслучайно такая важная веха оказалась преодолена в Лондонском королевском обществе, резиденции британской науки, которая на протяжении веков увидела немало великих прорывов человеческой мысли. Эта веха войдет в историю как одна из наиболее важных”[66].
Специалисты по ИИ в один голос рассмеялись над этими словами. Любому человеку, знакомому с принципом программирования чат-ботов, достаточно просмотреть записи состоявшихся на соревновании бесед, чтобы сразу понять, что Женя Густман – программа, причем не слишком сложная. Результат соревнования больше рассказал о судьях и самом тесте, чем о машинах. Учитывая пятиминутное ограничение и склонность уходить от ответа на сложные вопросы, меняя тему или отвечая вопросом на вопрос, программе было довольно легко убедить судью-неспециалиста, что он общается с живым человеком. Это демонстрировали многие чат-боты, от созданной в 1960-х годах программы “Элиза”, притворявшейся психотерапевтом, до современных вредоносных ботов в Facebook, которые в коротких текстовых беседах обманом убеждают людей раскрывать личную информацию.
Конечно, эти боты эксплуатируют склонность человека к антропоморфизации. (Мама, ты была права!) Мы спешим приписывать компьютерам понимание и сознание, имея лишь скудные доказательства.
По этим причинам большинство специалистов по ИИ ненавидит тест Тьюринга, по крайней мере в той форме, в какой он проводился до сегодняшнего дня. Они считают подобные соревнования рекламными трюками, результаты которых ничего не говорят о прогрессе в сфере ИИ. Но даже если Тьюринг переоценил способность “среднего судьи” разглядеть простые хитрости, может ли его тест оставаться полезным критерием для определения разумности, если увеличить время разговора и поднять требования к судьям?
Рэй Курцвейл, занимающий должность технического директора Google, полагает, что должным образом разработанная вариация теста Тьюринга действительно сможет обнаружить машинный интеллект. По его прогнозам, компьютер пройдет этот тест к 2029 году, что станет важной вехой на пути к предсказываемой Курцвейлом сингулярности.
Сингулярность
Рэй Курцвейл долгое время остается главным оптимистом ИИ. Он учился у Марвина Минского в MIT и стал выдающимся изобретателем: он изобрел первый синтезатор речи и один из лучших в мире музыкальных синтезаторов. За эти и другие изобретения в 1999 году президент Билл Клинтон вручил Курцвейлу Национальную медаль в области технологий и инноваций.
Но прославился Курцвейл не своими изобретениями, а своими футуристическими прогнозами – и, в частности, идеей о сингулярности как “периоде будущего, когда скорость технологических изменений станет так высока, а их влияние будет так сильно, что человеческая жизнь необратимо изменится”[67]. Курцвейл использует термин “сингулярность” в значении “уникальное событие с… необычайными последствиями”, в частности, “событие, способное разорвать ткань человеческой истории”[68]. По мнению Курцвейла, этим событием станет достижение искусственным интеллектом превосходства над человеческим разумом.
Курцвейла вдохновили предположения математика Ирвинга Джона Гуда о потенциале интеллектуального взрыва: “Назовем ультраразумной такую машину, которая способна значительно превосходить любую интеллектуальную деятельность человека, каким бы умным он ни был. Поскольку конструирование машин также относится к сфере этой интеллектуальной деятельности, ультраразумная машина сможет конструировать еще более совершенные машины, затем, несомненно, произойдет «интеллектуальный взрыв» – и человеческий разум остается далеко позади”[69].
На Курцвейла также повлиял математик и писатель-фантаст Вернор Виндж, который полагал, что это событие случится еще раньше: “Эволюция человеческого разума продолжалась миллионы лет. Мы добьемся эквивалентного прорыва за малую долю этого времени. Вскоре мы будем создавать разумы, которые будут превосходить наш собственный. Когда это случится, человеческая история достигнет некой сингулярности… и мир выйдет далеко за пределы нашего понимания”[70].
Курцвейл отталкивается от интеллектуального взрыва, ступает на территорию научной фантастики и переходит от ИИ к нанотехнологиям, виртуальной реальности и “загрузке сознания”, не меняя при этом спокойного, уверенного тона дельфийского оракула, который смотрит на календарь и называет конкретные даты. Чтобы получить представление о прогнозах Курцвейла, познакомьтесь с некоторыми из них:
К 2020-м годам молекулярная сборка даст инструменты, чтобы побороть бедность, очистить окружающую среду, победить болезни [и] повысить продолжительность человеческой жизни.
К концу 2030-х годов… мозговые имплантаты на базе массово производимых интеллектуальных наноботов существенно улучшат нашу память, а также все наши сенсорные и когнитивные способности и способности к распознаванию образов.
Загрузка сознания предполагает сканирование всех его значимых элементов и их установку в достаточно мощную вычислительную среду… По осторожному прогнозу, успешная загрузка [сознания] будет осуществлена в конце 2030-х годов[71].
Компьютер пройдет тест Тьюринга к 2029 году[72].
В 2030-х годах искусственное сознание станет вполне возможным. Это и есть ключ к прохождению теста Тьюринга[73].
Я считаю, что сингулярность наступит… в 2045 году. Небиологический разум, созданный в этом году, будет в миллиард раз мощнее всей совокупности человеческого разума сегодня[74].
Немецкий писатель Андриан Крайе иронично назвал прогноз Курцвейла о сингулярности “не более чем верой в технологическое Вознесение”[75].
Все прогнозы Курцвейла основаны на идее об “экспоненциальном прогрессе” во многих областях науки и технологий, особенно в сфере компьютеров. Чтобы проанализировать эту идею, давайте разберемся, как работает экспоненциальный рост.
Экспоненциальная притча
В качестве простой иллюстрации экспоненциального роста я перескажу старую притчу. Давным-давно прославленный мудрец из бедной и голодной деревни посетил далекое и богатое царство, правитель которого предложил ему сыграть в шахматы. Мудрец не спешил соглашаться, но правитель настаивал, обещая мудрецу в награду все, что он только пожелает, если он сумеет одержать победу в игре. Желая спасти свою деревню, мудрец согласился сыграть в шахматы и (как обычно случается с мудрецами) выиграл партию. Царь спросил мудреца, какую награду он хочет. Любивший математику мудрец ответил: “Я прошу, чтобы ты взял эту шахматную доску и положил два рисовых зернышка на первую клетку, четыре – на вторую, восемь – на третью и так далее, удваивая количество зернышек на каждой следующей клетке. Доходя до конца каждого ряда, складывай зерна и отправляй их в мою деревню”. Не разбиравшийся в математике правитель рассмеялся. “И это все, чего ты хочешь? Я велю своим придворным принести рис и скорейшим образом выполнить твою просьбу”.
Слуги принесли большой мешок с рисом. Через несколько минут они выложили рисовые зерна на первые восемь клеток: 2 – на первую, 4 – на вторую, 8 – на третью и так далее. На восьмой клетке оказалось 256 зерен. Они сложили все зерна (всего 511 штук) в маленький мешочек и отправили на лошади в деревню мудреца. Затем они перешли на второй ряд и положили на первую клетку 512 зерен, на вторую – 1024, на третью – 2048. Кучки риса уже не входили на клетки, поэтому зерна считали в большой миске. К концу второго ряда пересчет зерен стал занимать слишком много времени, и придворные математики стали примерно оценивать их количество по весу. Они посчитали, что на шестнадцатую клетку необходимо было положить 65 536 зерен, то есть около килограмма риса. Мешок с рисом за второй ряд клеток весил около двух килограммов.
Когда придворные перешли на третий ряд, за семнадцатую клетку они выделили мудрецу 2 килограмма риса, за восемнадцатую – 4 и так далее. К концу третьего ряда (на клетке номер 24) потребовалось 512 килограммов риса. Слугам приказали принести еще несколько огромных мешков с рисом. На второй клетке четвертого ряда (клетке номер 26) положение стало отчаянным: по подсчетам математиков, за нее мудрецу полагалось 2048 килограммов риса. Для этого нужно было отдать весь рис, запасенный в стране, но придворные не дошли еще даже до середины шахматной доски. Правитель понял, что мудрец его обхитрил, и взмолился, чтобы он простил ему долг и спас царство от голода. Решив, что его деревня получила достаточно риса, мудрец пощадил правителя.
Рис. 5. Графики, показывающие, сколько риса необходимо выделить на каждую клетку шахматной доски, чтобы выполнить просьбу мудреца: A – клетки 1–24 (на оси y показаны сотни килограммов), B – клетки 24–64 (на оси y показаны десятки триллионов килограммов)
На рис. 5A показано количество килограммов риса, выделяемых за каждую клетку до двадцать четвертой. На первой клетке лежит два зернышка, масса которых составляет жалкую долю килограмма. Меньше килограмма риса выделяется на каждую клетку до шестнадцатой включительно. Но после шестнадцатой клетки график стремительно взлетает вверх из-за эффекта удвоения. На рис. 5B показаны цифры для клеток 24–64, которые возрастают с 512 килограммов до более чем 30 триллионов килограммов.
Этот график описывается математической функцией y = 2x, где x – клетка шахматной доски (имеющая номер от 1 до 64), а y – количество рисовых зерен, соответствующих этой клетке. Такая функция называется экспоненциальной, поскольку x – это экспонента числа 2. При любом масштабе графика эта функция имеет характерную точку, в которой кривая переходит от медленного к взрывному росту.
Экспоненциальный прогресс в компьютерной сфере
По мнению Рэя Курцвейла, компьютерная эпоха стала реальным повторением экспоненциальной притчи. В 1965 году один из основателей Intel Corporation Гордон Мур сформулировал закон, который стали называть законом Мура: количество компонентов чипа компьютерной микросхемы удваивается примерно каждые два года. Иными словами, размер (и стоимость) компонентов экспоненциально снижается, а вычислительная скорость и объемы компьютерной памяти экспоненциально растут.
Книги Курцвейла полны графиков, подобных графикам на рис. 5, и его прогнозы о будущем ИИ основаны на экстраполяции тенденций к экспоненциальному прогрессу в соответствии с законом Мура. Курцвейл отмечает, что при сохранении текущих тенденций (а он полагает, что они сохранятся) компьютер стоимостью 1000 долларов “достигнет мощности человеческого мозга (1016 вычислений в секунду) … примерно в 2023 году”[76]. В этот момент, по мнению Курцвейла, для создания ИИ человеческого уровня нужно будет просто осуществить обратное проектирование мозга.
Нейроинженерия
При обратном проектировании мозга необходимо достаточно хорошо разбираться в его устройстве, чтобы его скопировать, или хотя бы использовать основные принципы работы мозга, чтобы воссоздать его разум на компьютере. Курцвейл считает обратное проектирование практическим подходом к созданию ИИ человеческого уровня и ожидает, что он будет применяться в ближайшем будущем. Большинство нейробиологов категорически не согласно с ним, ведь сегодня о работе мозга известно очень мало. Однако аргумент Курцвейла опять же опирается на экспоненциальные тенденции – на этот раз на прогресс в нейробиологии. В 2002 году Курцвейл написал: “Тщательный анализ соответствующих тенденций показывает, что в ближайшие тридцать лет мы поймем принципы работы человеческого мозга и получим возможность воссоздать его способности в искусственных веществах”[77].
Немногие нейробиологи согласны с таким оптимистичным прогнозом для их области науки – а возможно, с ним не согласен никто из них. Но даже если мы сможем создать машину, работающую по принципам мозга, как она узнает все, что нужно знать, чтобы считаться разумной? В конце концов, у новорожденного ребенка есть мозг, но пока нет того, что мы назвали бы интеллектом человеческого уровня. “Сложность [мозга] в основном определяется его взаимодействиями со сложным миром, – соглашается Курцвейл. – Следовательно, необходимо будет обеспечить искусственный разум образованием, подобно тому, как мы обеспечиваем образованием природный разум”[78].
Само собой, получение образования может занять долгие годы. Курцвейл полагает, что этот процесс можно значительно ускорить. “Современная электроника уже обрабатывает информацию в десять миллионов раз быстрее, чем электрохимическая нервная система человека. Как только ИИ освоит основные человеческие речевые навыки, он сможет совершенствовать эти навыки и расширять свои общие знания, быстро читая человеческую литературу и поглощая информацию, которая содержится на миллионах интернет-сайтов”[79].
Курцвейл не говорит, как именно все это случится, но уверяет нас, что для создания ИИ человеческого уровня “мы не станем программировать человеческий разум связь за связью, как гигантскую экспертную систему, а сконструируем сложную иерархию самоорганизующихся систем, основанную в основном на обратном проектировании человеческого мозга, а затем позволим ей получить образование… в сотни, если не в тысячи, раз быстрее, чем со сравнимым процессом справляются люди”[80].
Скептики и адепты сингулярности
Часто книги Курцвейла “Эпоха духовных машин” (1999) и “Сингулярность уже близко” (2005) вызывают одну из двух противоположных реакций: восторженную поддержку или снисходительный скепсис. Читая книги Курцвейла, я пребывала (и по-прежнему остаюсь) во втором лагере. Меня совсем не убедили ни многочисленные экспоненты, ни аргументы в поддержку обратного проектирования мозга. Да, компьютер Deep Blue победил Каспарова в шахматах, но в большинстве других областей ИИ не дотягивает до человеческого уровня. Прогнозы Курцвейла о том, что ИИ сравняется с нами всего через пару десятилетий, кажутся мне до смешного оптимистичными.
Большинство знакомых мне людей настроено столь же скептически. Мнение большинства специалистов по ИИ прекрасно выражено в статье журналистки Морин Дауд, которая описывает, как знаменитый стэнфордский исследователь ИИ Эндрю Ын при упоминании о Курцвейле закатил глаза и сказал: “Всякий раз, когда я читаю «Сингулярность» Курцвейла, глаза у меня закатываются сами собой”[81].
С другой стороны, у Курцвейла много сторонников. Его книги, как правило, становились бестселлерами и получали положительные отзывы в серьезных изданиях. В журнале Time о “Сингулярности” написали: “Это не маргинальная теория, а серьезная гипотеза о будущем жизни на Земле”[82].
Идеи Курцвейла оказали особенно сильное влияние на технологическую сферу, где люди склонны верить в экспоненциальный прогресс технологий как способ решения всех общественных проблем. Курцвейл не только занимает пост технического директора в Google, но и вместе с другим футуристом и предпринимателем Питером Диамандисом основал Университет сингулярности (SU), “трансгуманистический” аналитический центр и инкубатор стартапов, который иногда выполняет роль летнего лагеря для технологической элиты. Задача SU состоит в том, чтобы “обучать, вдохновлять и помогать лидерам применять экспоненциальные технологии для решения важнейших проблем человечества”[83]. Одним из учредителей SU выступает Google. Сооснователь компании Ларри Пейдж активно поддерживает проект и часто читает лекции на программах SU. Кроме того, SU спонсируют и несколько других крупных технологических компаний.
Дуглас Хофштадтер стал одним из тех, кто – снова меня удивив – занял промежуточную позицию между скепсисом и тревогой по поводу сингулярности. Его насторожило, что в книгах Курцвейла “самые причудливые фантастические сценарии оказались перемешаны с прогнозами, сомнений в которых не возникает”. Когда я позволила себе не согласиться с этим, Хофштадтер отметил, что теперь, по прошествии нескольких лет, становится очевидно, что Курцвейл сделал много безумных предсказаний, но многие его предсказания, как ни странно, уже сбылись или сбудутся в скором времени. К 2030-м годам “«трансляторы опыта»… [будут] загружать весь поток своего сенсорного опыта, а также неврологические корреляты своих эмоциональных реакций во Всемирную паутину”?[84] Звучит бредово. Но в конце 1980-х годов Курцвейл, опираясь на свои экспоненты, предсказал, что к 1998 году “компьютер победит чемпиона мира по шахматам… и в результате мы разочаруемся в шахматах”[85]. В то время этот прогноз тоже показался многим бредовым. Но он оправдался на год раньше, чем предсказал Курцвейл.
Хофштадтер замечает, как хитро Курцвейл использует уловку, которую Хофштадтер называет “уловкой Христофора Колумба”[86], намекая на песню Айры Гершвина “Все смеялись”, где есть строчка “Все смеялись над Христофором Колумбом”. Курцвейл цитирует высказывания выдающихся людей прошлого, которые в свое время катастрофически недооценили развитие и влияние технологий. Приведу несколько примеров. Генеральный директор компании IBM Томас Уотсон в 1943 году сказал: “Думаю, во всем мире можно продать от силы компьютеров пять”. Один из основателей Digital Equipment Corporation Кен Олсен в 1977 году заявил: “Людям вовсе не нужны домашние компьютеры”. Билл Гейтс в 1981 году сказал: “640 000 байт памяти должно хватить всем”[87]. Уязвленный своей ошибкой насчет компьютерных шахмат, Хофштадтер не торопился отвергать идеи Курцвейла, какими бы безумными они ни казались. “Как и победа Deep Blue над Каспаровым, все это дает нам пищу для размышлений”[88].
Ставка на тест Тьюринга
“Футурологом” быть хорошо. Можно писать книги с прогнозами на десятки лет вперед, точность которых никак не скажется на вашей репутации – или показателях книжных продаж – здесь и сейчас. В 2002 году был создан сайт Long Bets, который помогает держать футурологов в узде. Long Bets – это “арена для конкурентных, ответственных прогнозов”[89], позволяющая прогнозисту делать долгосрочный прогноз с конкретной датой, а оппоненту – оспаривать этот прогноз. При этом оба они делают денежные ставки, а выигрыши выплачиваются, когда проходит дата прогноза. Первым прогнозистом на сайте стал предприниматель Митчелл Капор, который занимается разработкой программного обеспечения. Он сделал пессимистичный прогноз: “К 2029 году ни один компьютер – или «машинный интеллект» – не пройдет тест Тьюринга”. Капор, который основал успешную компанию по производству программного обеспечения Lotus и давно выступает за расширение гражданских свобод в интернете, хорошо знал Курцвейла и пребывал в лагере “отчаянных скептиков” в вопросе о сингулярности. Курцвейл согласился стать оппонентом Капора в этом публичном пари. По его итогам 20 000 долларов перейдут в “Фонд электронных рубежей” (в число основателей которого входит Капор), если победит Капор, или в Фонд Курцвейла, если победит Курцвейл. Тест для определения победителя состоится до конца 2029 года.
Когда Капор и Курцвейл заключили это пари, им – в отличие от Тьюринга – пришлось точно описать, как именно будет работать их тест Тьюринга. Они начали с нескольких необходимых определений. “Человек – это биологическая человеческая личность в понимании 2001 года, разум которого не усовершенствован при помощи машинного (то есть небиологического) разума… Компьютер – это любая форма небиологического разума (аппаратное и программное обеспечение), которая может включать любые формы технологий, но не может быть ни биологическим Человеком (усовершенствованным или нет), ни биологическими нейронами (при этом использование небиологических моделей биологических нейронов допустимо)”[90].
В условиях пари также говорится, что к оценке теста привлекут троих судей, которые будут беседовать с компьютером и тремя людьми – “референсами”. Все четверо кандидатов будут пытаться убедить судей, что они люди. Судей и участников для сравнения выберет “комитет теста Тьюринга”, в который войдут Капор, Курцвейл (или их представители) и еще одно лицо. Вместо пяти минут каждый из четырех кандидатов будет целых два часа беседовать с каждым из судей. По окончании всех интервью каждый судья вынесет свой вердикт (“человек” или “машина”) для каждого из участников. “Компьютер будет признан прошедшим «Тест Тьюринга по выявлению человека», если Компьютер обманет двух или более из трех Судей, заставив их подумать, что он человек”[91].
Но это еще не всё:
Кроме того, каждый из трех Судей Теста Тьюринга поставит каждому из четырех Кандидатов оценку от 1 (человек с наименьшей вероятностью) до 4 (человек с наибольшей вероятностью). Компьютер будет признан прошедшим “Тест Тьюринга по ранжированию”, если медианная оценка Компьютера окажется равна медианной оценке двух или более Людей-Референсов Теста Тьюринга или превысит ее.
Компьютер будет признан прошедшим Тест Тьюринга, если пройдет и Тест Тьюринга по выявлению человека, и Тест Тьюринга по ранжированию.
Если Компьютер пройдет Тест Тьюринга, описанный выше, до конца 2029 года, победителем пари будет признан Рэй Курцвейл. В ином случае победителем пари будет признан Митчелл Капор[92].
Ого! Довольно строго. У Жени Густмана не было бы шансов. Я должна (осторожно) согласиться с такой оценкой Курцвейла: “На мой взгляд, не существует набора хитростей или простых алгоритмов (то есть методов, которые были бы проще тех, что лежат в основе человеческого разума), который позволил бы машине пройти должным образом подготовленный тест Тьюринга, если она не обладает полноценным интеллектом человеческого уровня”[93].
Капор и Курцвейл не ограничились разработкой правил для своего пари и написали по статье, перечислив причины, по которым каждый из них считает, что победа будет за ним. В статье Курцвейла приводятся аргументы из его книг: экспоненциальный прогресс вычислительных технологий, нейробиологии и нанотехнологий, который в совокупности позволит осуществить обратное проектирование мозга.
Но Капора эти аргументы не убеждают. Он заостряет внимание на том, как (человеческие) физические тела и эмоции влияют на когнитивные способности человека. “Восприятие окружающей среды и [физическое] взаимодействие с ней не меньше когнитивной деятельности определяет наш опыт… [Эмоции] устанавливают и формируют границы мыслимого”[94]. Капор уверен, что, не имея эквивалента человеческого тела и всего, что оно дает, машина никогда не сможет узнать все необходимое для прохождения строгого теста Тьюринга, который разработали они с Курцвейлом.
Я уверен, что в основном люди познают мир эмпирически. Чтение книг лишь углубляет знания… Если человеческое знание, особенно знание об опыте, по большей части остается скрытым, то есть никогда не получает непосредственного выражения, найти его в книгах невозможно, а следовательно, подход Курцвейла к приобретению знаний окажется несостоятельным… Проблема заключается не в том, что знает компьютер, а в том, чего он не знает и не может знать[95].
Курцвейл отвечает, что согласен с Капором в вопросе о роли эмпирического обучения, скрытого знания и эмоций, но полагает, что к 2030 году виртуальная реальность станет “совершенно реалистичной”[96], а потому позволит воссоздавать физический опыт, необходимый для обучения развивающегося искусственного интеллекта. (Добро пожаловать в Матрицу.) Более того, этот искусственный интеллект получит созданный методом обратного проектирования искусственный мозг, ключевым компонентом которого будут эмоции.
Вы, как и Капор, скептически относитесь к прогнозам Курцвейла? Курцвейл утверждает, что вы просто не понимаете экспоненциальный рост. “По большому счету, суть моих разногласий с критиками сводится к тому, что они говорят: Курцвейл недооценивает сложность обратного проектирования человеческого мозга или сложность биологии. Но я не думаю, что недооцениваю сложность этой задачи. Думаю, это они недооценивают силу экспоненциального роста”[97].
Скептики указывают на пару пробелов в этом аргументе. В последние пятьдесят лет в сфере аппаратного обеспечения компьютеров действительно наблюдался экспоненциальный прогресс, но есть множество причин полагать, что в будущем эта тенденция не продолжится. (Курцвейл, конечно, это оспаривает.) Однако важнее тот факт, что в сфере программного обеспечения компьютеров экспоненциального прогресса не наблюдалось: вряд ли можно утверждать, что современные программы экспоненциально сложнее, или ближе к мозгу, чем программы, создававшиеся пятьдесят лет назад, или что такая тенденция вообще существовала. Утверждения Курцвейла об экспоненциальных тенденциях в нейробиологии и виртуальной реальности тоже часто оспариваются.
Однако, как отмечают адепты сингулярности, порой сложно увидеть экспоненциальную тенденцию, когда она в разгаре. Если посмотреть на экспоненциальные кривые вроде тех, что приводятся на рис. 5, Курцвейл и его сторонники полагают, что сейчас мы находимся в моменте, где кривая поднимается очень медленно, и прогресс кажется нам поступательным, но это заблуждение: впереди нас ждет взрывной рост.
Станет ли текущая весна ИИ, как утверждают многие, предвестником грядущего взрыва? Или это просто промежуточная остановка на медленной кривой поступательного развития, которая еще как минимум сто лет не приведет к появлению ИИ человеческого уровня? Или это очередной пузырь ИИ, который скоро лопнет, после чего начнется новая зима искусственного интеллекта?
Чтобы разобраться в этих вопросах, нужно внимательно рассмотреть ряд ключевых способностей нашего уникального человеческого разума, таких как восприятие, речь, принятие решений, рассуждения на основе здравого смысла и обучение. В следующих главах мы увидим, насколько далеко ИИ зашел в воссоздании этих способностей и оценим его перспективы до 2029 года и далее.