Если нейроинтерфейс позволяет управлять механической рукой, то ничто не мешает нам отдавать мысленные команды и другим роботам. Например, квадрокоптерам. В одном эксперименте компьютерный алгоритм анализировал энцефалограмму человека – и робот летел, куда тот ему велел. Использование энцефалограммы хорошо тем, что для установления связи между мозгом и роботом не требуется вживлять в мозг электроды, то есть делать хирургическую операцию
[370].
В 2016 году в Nature вышла статья, рассказывавшая, как обезьяны с поврежденным спинным мозгом снова смогли ходить. Электроды считывали активность моторной коры и передавали сигналы по беспроводной связи в спинной мозг, чуть ниже области повреждения, а клетки спинного мозга далее передавали сигналы уже мышцам ног
[371]. Похожим образом парализованные обезьяны восстанавливали контроль над своими передними конечностями, только сигналы от моторной коры передавались напрямую к мышцам, в обход спинного мозга
[372].
В 2017 году другая группа ученых рассказала о человеке, страдающем параличом, которому вживили электроды в моторную кору. Сигналы от нейроинтерфейса расшифровывались и передавались мышцам руки. Через полтора года тренировок пациент мог взять чашку, а через два года – самостоятельно поесть
[373]. Таким образом, наука приблизила нас к победе над некоторыми формами паралича.
Вернуть чувствительность парализованным конечностям пока не удалось, но и в этом направлении ученые достигли определенных успехов. Например, одному пациенту с травмой позвоночника ввели электроды в соматосенсорную кору, которая воспринимает тактильную информацию. Со временем он начал ощущать прикосновения к определенным частям парализованной руки в ответ на сигналы от отдельных электродов
[374]. Остается только снабдить руку пациента датчиками и подключить их к такой системе.
Обнадеживает, что в протезированной конечности можно создать ощущения, подобные тем, какие возникают при иллюзии резиновой руки, описанной в первой главе. В 2017 году ученые показали, что если одновременно стимулировать соматосенсорную кору парализованного пациента и прикасаться к лежащей перед ним искусственной руке, то можно создать у него иллюзию, будто ощущение прикосновений рождается в протезе
[375]. Не исключено, что в будущем мы сумеем создать роботизированные протезы, которые будут не только управляться напрямую мозгом, но и станут восприниматься пациентом как полноценные части тела.
Выше я обещал вам настоящую телепатию – передачу мыслей на расстоянии. Она тоже осуществима. В 2013 году ученым удалось наладить удаленную связь между мозгом одного грызуна и мозгом другого
[376]. В эксперименте участвовали пары крыс. В каждой паре одна крыса выступала в роли принимающей стороны, а вторая – передающей. Нейроинтерфейс грызуна-телепата анализировал активность его мозга и передавал данные компьютеру, а тот, в свою очередь, – нейроинтерфейсу второго животного.
В одной серии экспериментов первую крысу обучили выбирать между двумя рычагами, над одним из которых загоралась лампочка. А вторая должна был сделать такой же выбор, только не видя лампочки. В итоге вторая крыса научилась повторять выбор первой, используя полученные от нее электрические сигналы. Забавно, что часть экспериментов проходила в двух лабораториях – бразильской и американской. Тогда сигналы между грызунами, находящимися на разных материках, передавались через интернет.
Закончу тему настоящего чтения мыслей описанием еще нескольких впечатляющих работ. Так, ученые умеют реконструировать изображения, находящиеся перед глазами человека, анализируя активность его мозга с помощью томографа. В одном эксперименте испытуемым показывали буквы английского алфавита, написанные разными шрифтами, а компьютерная программа обучалась определять эти буквы. Затем добровольцам демонстрировали новые изображения, а компьютер, не зная их, с высокой точностью воспроизводил увиденные человеком символы
[377]. Позже подобный подход позволил компьютеру реконструировать не просто символы, а лица, на которые смотрели участники эксперимента
[378].
Не менее интересный результат описан в журнале Current Biology
[379]. Ученые анализировали с помощью томографа активность мозга испытуемых, пока те несколько часов смотрели трейлеры голливудских фильмов. На основании этих данных исследователи построили математические модели, предсказывающие, как фигуры, границы и движения в фильмах сказываются на показаниях томографа. Затем испытуемые смотрели новые трейлеры, а программа подбирала сотню коротких видеороликов (из большой базы данных), которые лучше всего соответствовали новым показаниям томографа. Все эти видеоролики усреднялись – и получалось своеобразное размытое кино, которое очень походило на то, что на самом деле видели испытуемые
[380].
В 2016 году ученые из той же лаборатории создали алгоритм, позволяющий по активности мозга определять, какие изображения видят люди. Например, человек смотрел фильм, а компьютер понимал, что там показывают – животное или машину
[381].