Мозг: прошлое и будущее. Что делает нас теми, кто мы есть — страница 8 из 58

Кроме того, нейронные сети делают то, для чего придуманы электронные цепи в цифровых процессорах. На самом простом уровне отдельные нейроны «умеют» складывать и вычитать, сочетая импульсы, которые получают от пресинаптических клеток. Грубо говоря, исходящий импульс постсинаптического нейрона – это сумма всех входящих импульсов, повышающих частоту потенциалов действия, минус все символы, которые ее понижают. Эта элементарная нейронная арифметика лежит в основе многих функций мозга. Например, зрительная система млекопитающих устроена так, что сигналы от пресинаптических нейронов, реагирующих на свет, из разных участков сетчатки суммируются, когда импульсы от этих клеток сходятся в отдельные постсинаптические клетки. Если комбинировать такие вычисления на множестве стадий, на каждой из которых задействуется новый уровень клеток, суммирующий данные от предыдущего уровня, можно получать реакцию на все более сложные световые узоры.

Сложность нейронных вычислений доходит до понятий из вузовской математики. Нейронные сети «знают» математический анализ, основу основ программы первого курса, и применяют его, когда надо отследить, как что-то в мире меняется или накапливается со временем. Когда глядишь на что-то определенное, двигая головой или телом, то задействуешь «нейронный матанализ», чтобы отслеживать прогресс собственных движений, и на основании этих данных корректируешь направление взгляда, чтобы оно не менялось при движении. Ученые выявили в мозге золотой рыбки группу из 30–40 нейронов, видимо, предназначенную для таких расчетов[76]. Другая разновидность нейронного матанализа позволяет зрению мухи распознавать движущиеся предметы. Для этого маленькие группы нейронов на сетчатке мухи сравнивают сигналы из соседних точек пространства[77]. Эти маленькие нейронные сети сигнализируют о движении, если визуальный сигнал из одной точки прибывает раньше, чем сигнал из второй точки, – примерно как мы с вами делаем вывод о движении поезда метро, сопоставляя время прибытия на соседние станции, даже если не наблюдаем движущийся поезд непосредственно.

Нейрофизиологи рассказывают и о сетях, решающих гораздо более сложные задачи, чем математический анализ: они обеспечивают распознавание предметов, принятие решений и сознание как таковое. И хотя ученые еще не сумели выявить нейронные сети, которые совершают эти операции, им удалось зарегистрировать у нейронов признаки подобных сложных расчетов. Для этого частота потенциалов действия нейронов сравнивалась с решением поведенческих задач на выходе. В пример можно привести классический цикл экспериментов по изучению нейронных механизмов обучения, которые провел Вольфрам Шульц из Кембриджского университета на основании данных, полученных из мозга обезьян при помощи электродов. Группа под руководством Шульца изучала, как обезьяны учатся связывать конкретный визуальный стимул с последующей наградой (им давали фруктовый сок), – похожий эксперимент проводил Павлов со своими собаками[78]. У обезьян возникали потенциалы активности у дофамин-содержащих нейронов в отделе мозга, который называется «вентральная область покрышки», и поначалу это происходило, когда обезьяны получали сок. Но после того, как обезьяны несколько раз видели визуальный стимул и получали сок, дофаминовые нейроны начали «выстреливать» при появлении стимула – то есть еще до сока. Это показывает, что нейроны научились «предсказывать» награду, следовавшую за каждым стимулом. Примечательно, что поведение дофаминовых нейронов в этой задаче очень похоже на вычислительный алгоритм из области машинного обучения[79]. Сходство между абстрактным методом машинного обучения и реальными биологическими сигналами наталкивает на мысль, что мозг обезьяны, вероятно, применяет нейронные сети для исполнения алгоритма, похожего на компьютерный.

Между электроникой и активностью, приписываемой мозгу, есть и другие параллели. Например, нередко говорят, что частота потенциалов активности кодирует информацию, и ссылаются при этом на теорию, которую разработал в 40-х годах XX века Клод Шеннон для описания надежности коммуникаций в электронных системах наподобие радиоприемников и телефонов[80]. Теория информации Шеннона постоянно используется в инженерном деле и информатике для измерения того, с какой надежностью входящие данные соответствуют исходящим. В сущности, мы сталкиваемся с теорией информации, когда сжимаем мегапиксельные фотографии в килобайтовые jpeg-изображения, не теряя деталей, или передаем файлы по Ethernet-кабелям дома или на работе. Чтобы такие задачи хорошо исполнялись, инженерам надо подумать, как лучше всего распаковывать сжатые данные цифровых изображений и как быстро и точно понять и декодировать сигнал, переданный по кабелю, при каждой загрузке и выгрузке. Подобные проблемы тесно связаны с вопросами сохранения данных в биологической памяти и своевременной передачи по нервным волокнам в мозг потенциалов действия, содержащих сенсорную информацию. Для численного описания функционирования нейронов исключительно полезны математические модели теории информации и обработки сигналов в целом[81].

Когда мы представляем себе мозг как электронное устройство, то совершенно естественно анализировать данные о работе мозга при помощи инженерных методов, например, теории информации или моделей машинного обучения. В некоторых случаях аналогия «мозг-компьютер» заводит исследователей еще дальше – заставляет сопоставлять отделы мозга с макро-деталями компьютера. В книге, вышедшей в 2010 году, нейрофизиологи Рэнди Гэллистел и Адам Кинг утверждают, что в мозге должно быть оперативное запоминающее устройство, как у прототипического компьютера – машины Тьюринга[82]. Машина Тьюринга перерабатывает данные, записывая и считывая нули и единицы на ленте, и операции считывания и записывания совершаются в соответствии с набором правил в машине («программой»), а лента и есть машинная память, аналогичная дискам или полупроводниковым микросхемам памяти в современных персональных компьютерах[83]. Гэллистел и Кинг полагают, что если все хорошие компьютеры основаны на подобных механизмах запоминания, значит, и мозг тоже. Таким образом, авторы ставят под вопрос современную догму, что основа биологической памяти лежит в изменениях синаптических связей между нейронами – такую модель трудно уподобить памяти по Тьюрингу: по их мысли, такой синаптический механизм слишком медленный и негибкий, несмотря на то что его подтверждает колоссальное количество экспериментальных данных[84]. Хотя гипотеза Гэллистела и Кинга не общепринята, все же это примечательный пример того, как аналогия «мозг-компьютер» берет верх даже над теориями, выведенными из наблюдений. Когда смотришь сначала на мозг, потом на компьютер, потом снова на мозг, и вправду трудно понять, что из них что вдохновило.

* * *

Видимо, в ассоциации «мозг-компьютер» есть что-то духовно-мистическое. Говорят, что даже Джон фон Нейман впервые задумался о синтезе информатики и нейробиологии, когда незадолго до смерти вернулся в лоно католической церкви (фон Нейман умер в 1957 году от рака поджелудочной железы)[85]. Впрочем, нет никаких данных, что фон Нейман на протяжении всей жизни хоть как-то интересовался религией, хотя и крестился в 1930 году, когда собирался жениться в первый раз. Возвращение к Богу на смертном одре, своего рода попытка застраховать душу в последний момент, – клише, поэтому странно себе представить, чтобы человек одновременно с этим задумался о материальной основе души как таковой на языке машин. Однако в некотором смысле эти представления легко примирить, поскольку приравнять органический разум к неорганическому механизму – значит получить надежду на секулярное бессмертие если не для себя, то для своего биологического вида. Если мы есть наш мозг, а наш мозг изоморфен механизму, который мы можем создать, значит, мы в силах представить себе, что мозг можно ремонтировать, клонировать, достраивать, воссоздавать, передавать в пространстве или вечно хранить в полупроводниковом анабиозе, чтобы разбудить, когда придет время. Отождествляя мозг с компьютером, мы еще и молчаливо отказываемся от своего подлинного физического «я», грязного, смертного, непонятного, и замещаем его идеалом, от рождения избавленным от бремени плоти.

Примеру фон Неймана на закате дней последовала целая череда выдающихся ученых-физиков, тоже задумавшихся об абстрактном или механическом происхождении познания. Эрвин Шредингер спустя почти 20 лет после волнового уравнения и через 9 лет после появления на свет знаменитого кота заявил, что в статистическом движении атомов и молекул заключено вселенское сознание[86]. Его теория далека от компьютерной аналогии фон Неймана, но точно так же представляет ментальные процессы как фундаментально абиотические. Еще один яркий пример – Роджер Пенроуз, выдающийся космолог, чьи открытия, касающиеся черных дыр, в определенных кругах блекнут по сравнению с его заявлениями о сознании. Пенроуз, очевидно, отрицает, что компьютер способен эмулировать человеческий разум, однако ищет основу свободы воли в эзотерических принципах квантовой физики[87]. Квантовая модель разума, по Пенроузу, основана скорее на физике, а не на физиологии, и на формулах, а не на экспериментах. Биофизик Фрэнсис Крик обратился к нейрофизиологии после того, как вместе с Джеймсом Уотсоном открыл структуру ДНК; поскольку его авторитет как ученого очень велик, исследователи и сегодня убеждены, что сознание следует искать в электрической активности больших ансамблей нейронов