Часть 8 из 12 В начало
Для доступа к библиотеке пройдите авторизацию
– Именно так.
– А что же насчет дискуссии об этичности подобных экспериментов над разумными компьютерами?
– О, вы затронули чрезвычайно деликатный вопрос. Мы с вами, вероятно, могли бы согласиться: существует вполне осязаемая вероятность, что ИИ ничем не отличается от людей с точки зрения наличия воспоминаний, личного опыта и, может быть, даже сознания. Особенно с учетом последних технологических достижений. Но эта тема все еще вызывает массу споров. Многие влиятельные философы считали, что ИИ никогда не достигнет человеческого уровня понимания, интеллекта и самосознания.
Например, в 2013 году философ Джон Сёрл написал статью для журнала Proceedings of the National Academy of Sciences под названием «Теория разума и наследие Дарвина». В ней Сёрл утверждает следующее: «Мы знаем, что воплощенная компьютерная программа не самодостаточна для ментальных процессов, сознательных или бессознательных, потому что программа определяется исключительно синтаксической манипуляцией символов, в то время как ментальные процессы имеют реальное содержание».
На мой взгляд, единственное, что доказал Сёрл, – свое полное непонимание ИИ и программирования. Не все компьютерные программы определяются «исключительно синтаксически». Нейронные сети для ИИ использовались уже десятилетиями. Множественные исследования показали, что они учатся решать самые разные задачи, принимать собственные решения, которые в них никто не закладывал. Интернет переполнен видеороликами, наглядно показывающими, как ИИ эволюционируют и адаптируются. Биологическая основа человеческого мозга не предлагает ничего фундаментально особенного по сравнению с современными ИИ, потому что совершенно неважно, из каких нейронов сделана сеть – реальных клеток или их цифровых аналогов. Важно лишь то, как они хранят и обрабатывают информацию.
Возможности современных ИИ и человека не особо различаются. Мы наблюдаем за поведением других людей и заключаем, что они способны на такие же когнитивные процессы и субъективный опыт, как и мы. Но если воспользоваться таким критерием, то можно предположить, что и продвинутые ИИ имеют собственное «я» и личные переживания. К сожалению, идеи Сёрла до сих пор популярны. Его знаменитый аргумент о «китайской комнате», изложенный в статье «Разумы, мозги и программы», оказался очень влиятельным и цитировался тысячи раз.
Аргумент Сёрла – мысленный эксперимент. Представьте, что ИИ ведет себя так, словно понимает китайский. Он берет китайские символы на вход, следует определенным инструкциям и выдает новые комбинации символов в качестве ответа. Эти ответы разумны и имеют смысл, поэтому мы приходим к выводу, что ИИ прошел тест Тьюринга: мы не можем отличить программу от человека, говорящего на китайском.
Затем Сёрл мысленно помещает себя в такую же закрытую комнату, где у него есть английская версия инструкций. Ему задают вопрос на китайском, он берет полученные символы и, следуя алгоритму, выдает правильные ответы. Но он по-прежнему не понимает китайский. По мнению философа, его мысленный эксперимент доказал: есть разница между пониманием и имитацией понимания, и компьютер никогда не научится первому.
Проблема аргумента в том, что Сёрл – лишь часть комнаты, как и дюжина нейронов – только часть мозга человека. Нельзя утверждать, что вся комната чего-то не понимает исключительно потому, что понимание отсутствует у ее части (в данном случае у Сёрла – человека внутри комнаты). Особенно учитывая, что эта часть сама по себе недостаточна для выполнения поставленной задачи. Вторую проблему я уже обозначил: современные ИИ с общим интеллектом – это черные ящики, а не набор алгоритмов и правил, которые легко перевести на английский. Чтобы следовать правдоподобному набору «инструкций», Сёрлу пришлось бы эмулировать, то есть воспроизвести, вычислительную деятельность информационной системы, сопоставимой по сложности с человеческим мозгом. Ему бы пришлось каким-то образом загрузить ИИ себе в мозг или создать какую-то иную среду для его работы.
Можно только представить, насколько такое «понимание» искусственного интеллекта известными философами притормозило технологический прогресс.
В таких условиях большинство работ об этике ИИ касались проблемы их превращения в оружие, ответственности за ошибки самоуправляемых машин и защиты людей от вышедших из-под контроля роботов. Вероятно, вы знакомы с тремя законами робототехники Айзека Азимова, которые затрагивали исключительно безопасность людей и послушание роботов. Поэтому движение за права ИИ никогда не достигало таких масштабов, как, скажем, движение за права животных. Никто не требовал, чтобы наши разработки прошли через проверку этического комитета. И все же мы полностью осознавали, что именно делаем. И пытались проводить эксперименты настолько этично и осторожно, насколько это было возможно.
– А что, если не уничтожать ИИ полностью, а просто стирать его воспоминания о полученных научных знаниях? Этого бы хватило для создания мертвого свидетеля?
– Как я уже говорил, продвинутые ИИ подобны черным ящикам, сопоставимым по сложности с человеческим мозгом. Или даже сложнее, если посчитать количество искусственных нейронов и связей между ними. Вы не знаете, какие виртуальные связи представляют приобретенную информацию. Кроме того, они постоянно меняются. Но для ИИ можно создать резервную копию. И вот мы обнаружили, что можно удалить ИИ и заменить его предыдущей версией, сохраненной перед тем, как мы предоставили ей интересующие нас факты и цифровую копию человеческого генома. Но сам момент «убийства» никуда не делся. Сначала мы стираем ИИ, а потом помещаем копию на его место. Что происходит с его гипотетическим субъективным опытом в этот момент? Без понятия. Я даже не знаю, имеет ли этот вопрос какой-либо смысл. Но это было лучшее, что мы могли сделать. А еще мы стали спрашивать у ИИ информированное согласие.
– Спрашивали, можно ли их убить?
– Да. И, к нашему удивлению, некоторые соглашались, после того как мы объясняли, для чего хотим их использовать. Возможно, страх смерти не такое уж и необходимое свойство разумных форм материи. У людей этот страх возник в результате эволюции, так как помогал нашим предкам выживать и оставлять потомство. Эволюция ИИ отбирала другие черты.
В любом случае мы всегда находили хорошее оправдание каждому эксперименту. Например, мы ограничились опытами, которые могли принести пользу человечеству.
– И как же они помогут человечеству? Кажется, что все, чего вы могли добиться, – сделать некоторые странные эксперименты невоспроизводимыми. Конечно, это ведет к интересным метафизическим выводам, пересмотру картины мира, изменениям в культуре, но я не понимаю, какую практическую пользу несут ваши опыты.
– Подумайте еще раз.
– Просветите меня.
– Перефразирую писателя Артура Кларка: «любая достаточно развитая магия неотличима от технологии». Видите ли, даже самым непрактичным фундаментальным научным открытиям нередко находится прикладное применение. Иногда они превращаются в технологии, которые никто не ждал и даже представить себе не мог. Вам просто нужно раскрыть законы природы. Или, в нашем случае, законы Ви Джас.
Один из самых популярных методов генной инженерии, использованный для создания первых генетически модифицированных детей, называется CRISPR/Cas9. Его открыли случайно: ученых интересовало, почему геномы некоторых бактерий и архей содержат короткие фрагменты ДНК-вирусов (бактериофагов). Оказалось, что эти фрагменты играют роль в сложном противовирусном защитном механизме. Их можно сравнить с базой данных компьютерного антивируса. Фермент Cas9 использовал короткие фрагменты генетической информации вирусов, чтобы определять и уничтожать их новые и полноценные копии, вторгающиеся в клетку. Потом оказалось, что Cas9 можно «перепрограммировать» так, чтобы он разрезал любой нужный нам фрагмент ДНК, не обязательно вирусного происхождения. Достаточно снабдить его базой данных желаемых мишеней. Это как опознать преступника по отпечаткам пальцев или дать ищейке понюхать его вещи. Более того, оказалось, что можно взять эту антивирусную систему целиком и поместить ее в клетки растений или животных для защиты от практически любых известных вирусов. Или использовать эту технологию для создания генетически модифицированных организмов.
Я легко приведу массу примеров, когда фундаментальная наука внезапно стала прикладной. Осаму Симомура изучал, как работает зеленый флуоресцентный белок, обнаруженный у медузы Aequorea victoria. Он содержит хромофор, который поглощает ультрафиолет и испускает зеленый свет. Десятилетиями мало кого интересовала кропотливая работа ученого, пока не обнаружили ген, который кодирует этот белок, и специалисты смогли использовать его, чтобы заставить светиться интересующие их клетки, части клеток, ткани, организмы… Они могли присоединить зеленый флуоресцентный белок к другому белку и узнать, где тот обычно находится в клетке. Так появился один из самых важных инструментов в молекулярной биологии, за открытие которого Симомура и еще двое выдающихся ученых получили Нобелевскую премию. Сегодня белок используют в разработке лекарств, он помогает генным инженерам и применяется для изучения внутреннего строения и функционирования живых организмов.
– Весьма захватывающие истории! Но мне все-таки интересно, в какой же инструмент вы превратили мертвых искусственных свидетелей?
– В универсальный, который мог влиять на многое. Но прежде мы вернулись к тому, с чего начинали: к продлению жизни. Ключом к этой технологии стали «инверсии».
– Теперь понятно. Предположим, вы обнаружили, что некое гуманизированное жертвоприношение сокращает жизнь животных. Тогда вы могли бы сообщить об этом результате ИИ, стереть его… И теперь такое же жертвоприношение приведет к увеличению продолжительности жизни! Правда, стоит вам установить, что такая терапия работает, и опубликовать результаты, эффект исчезнет.
– Метод также перестанет работать, если погибнет кто-то из исследователей, обнаруживших эффект. Даже если ничего не публиковать. На самом деле вы очень приблизились к нашей идее, но не задали самые главные вопросы.
– Какие?
– Первый вопрос. Откуда Ви Джас знает, что наши научные исследования – не полная ерунда? Если она могла сама изучить подобные аномалии, зачем ей вообще мертвые свидетели? Можем ли мы соврать Ви Джас? И я задаю этот вопрос в научном, а не в этическом смысле.
– То есть вы решили обмануть богиню смерти? Смело!
– Не только решили, но смогли! Позвольте рассказать об эксперименте, который мы провели. Мы вернулись к нашим круглым червям и отобрали тридцать новых человеческих генов, которые ранее не использовались в «некромантских» исследованиях. Мы создали тридцать разновидностей гуманизированных червей. Потом написали подробные фальшивые научные статьи о том, что происходит, если этих червей принести в жертву. Из всех тридцати статей следовало, что жертвоприношение сокращало продолжительность жизни присутствовавших рядом обычных червей. Но в каждой работе мы указали разную величину этого сокращения. Потом мы случайным образом разбили статьи на три группы. Первые десять публикаций мы отдали на изучение добровольному ИИ, который выступил в роли мертвого свидетеля. Еще десять мы распечатали, а потом сожгли. Кроме того, мы их записали и стерли с жесткого диска. С оставшимися десятью работами мы не делали ничего.
Потом мы наняли независимую группу исследователей, которые изучили, как все тридцать разных гуманизированных жертвоприношений влияют на продолжительность жизни червей. Ученые ничего не знали про наши фальшивые статьи. Перед ними стояло вполне конкретное задание: проверить, где наблюдалось продление жизни и насколько, а где – нет. Честно скажу: я не знал, какие результаты мы получим. Но гипотеза заключалась в том, что мы увидим десять «инверсий», ведущих к продлению жизни. И ничего интересного не случится в оставшихся двадцати опытах.
– Предсказание сбылось?
– Да. В десяти из десяти случаев, когда использовался мертвый свидетель-ИИ, мы получили «инверсию». А вот простое удаление информации из текстового файла не сработало – нужно именно уничтожение нейронной сети ИИ.
– То есть вы использовали богиню смерти для продления жизни. Весьма забавно. И как же, на ваш взгляд, этот результат не нарушает законов физики?
– Ну, строго говоря, зная одни лишь фундаментальные законы физики, будет проблематично рассчитать, когда червяк должен умереть. Никаких мощностей не хватит. На продолжительность его жизни влияет множество случайных факторов. Возможно, этой неопределенности достаточно. В экспериментальной группе черви жили в среднем в пять раз дольше обычного. Кстати, чем большее сокращение продолжительности жизни указывалось в фальшивых публикациях, тем больше было реальное увеличение продолжительности жизни в экспериментах. Корреляция вышла почти идеальной.
– Получается, червяки достигали старости и дольше находились в таком «преклонном возрасте»? Или вы наблюдали именно замедление старения?
– Второй вариант. Червяки медленней старели и дольше сохраняли активность. И у них улучшились биомаркеры старения: меньше повреждалась ДНК, лучше работали митохондрии, не накапливались пигменты, типично образующиеся с возрастом.
– И, наверное, вы подумывали, как перенести эти исследования на людей? Это же и есть то самое вмешательство в старение – голубая мечта многих ученых!
– С этим у нас возникла проблема. И тут встает второй важный вопрос, который вы забыли задать.
– Какой?
– Могут ли жертвоприношения животных влиять на людей? Может ли смерть гуманизированного червяка продлить жизнь мышке? Или гибель гуманизированной мышки продлить жизнь собаке или утконосу?
– Так могут ли?
– Похоже, нет. Когда мы только переключились на опыты с плодовыми мушками, стало ясно, что жертвоприношения червей никак на них не влияли. И наоборот. Но у нас появилась еще одна идея, как обмануть Ви Джас.
– Какая же? Ведь данные от некрохакеров вам не помогли. И вы не могли проводить гуманизированные жертвоприношения людей, если так можно сказать…
– Да, это было бы абсурдом. Но оставался еще один нерешенный вопрос. Который был частью одного очень давнего спора, касающегося прав человека, религии и этики. Как всегда блистательная Мэри очень удачно вспомнила про аборты!
– Аборты?
– Ага! И тогда мы решили узнать, как Ви Джас к ним относится и что случится с людьми, которые будут присутствовать во время жертвоприношения эмбрионов. Мы решили спросить Ви Джас, за право выбора она или за жизнь.
Глава 7. И животноводство!
– Представляю, в какую ярость пришла общественность, услышав про принесение в жертву эмбрионов!
– Забавно, но да.
– И чего же тут забавного?
– В начале XXI века шло много разговоров о том, как наука и религия сойдутся в новом синтезе. Многие верующие ждали, что ученые вот-вот найдут Бога. Но Ви Джас – не то божество, кого они ожидали или хотели бы увидеть.
– Пожалуйста, скажите мне, что вы придумали этический способ получения человеческих эмбрионов.
– Мы начали с эмбриональных клеток мышей. В их геномы мы встраивали произвольно выбранный человеческий ген. Перед этим мы писали фальшивую статью о том, что смерть таких гуманизированных грызунов снижала продолжительность жизни присутствовавших рядом сородичей. Статью передавали искусственному интеллекту вместе с цифровым геномом человека. Потом мы стирали ИИ и восстанавливали его до резервной копии. Затем брали старых мышей и разбивали их случайным образом на несколько групп. Лишь одна группа присутствовала во время жертвоприношения эмбриона. Потом мы сравнивали кривые выживания между группами. Экспериментаторы, которые работали со старыми мышами и измеряли продолжительность их жизни, не знали, кто в какой группе.
– И это сработало?
– К сожалению, нет. Похоже, Ви Джас выступала «за выбор» и не считала, что эмбрион мыши – это мышь.
– Ну а чего вы ожидали от божества женского пола? Уверена, что верующие пришли в замешательство от таких результатов.
– О да. Хотя им стоило радоваться. Ведь если бы наши опыты сработали, мы бы рассмотрели возможность жертвоприношения человеческих эмбрионов. Пришлось бы только узнать, можно ли их как-то «гуманизировать». Учитывая, что они и так гуманизированы на все 100 % генома. Но вы ничего не спросили о контрольных группах, которые мы использовали.
– А что там с контрольными группами?
– Мы пробовали приносить в жертву не только гуманизированные эмбрионы, но и гуманизированные клетки соединительной ткани – фибробласты и индуцированные плюрипотентные стволовые клетки. Это такие клетки, которые по своим свойствам неотличимы от эмбриональных: они могут превратиться в любые клетки организма. Они делаются из специализированных клеток введением в них нескольких генов, которые называются факторами Яманаки, – за их открытие вручили Нобелевскую премию. По мере развития организма его клетки специализируются и утрачивают плюрипотентность. Некоторые и вовсе перестают делиться. Другие делятся, но дают клетки только определенных типов. Однако их можно вернуть обратно в плюрипотентное состояние, подобное ранним клеткам эмбриона.
К сожалению, приношение в жертву гуманизированных фибробластов и плюрипотентных клеток тоже не работало.
– Досадно.
– Это точно. Мы очень хотели научиться предотвращать старение и лечить заболевания, принося в жертву именно гуманизированные индуцированные плюрипотентные клетки. Их легче приобрести, и вокруг них нет таких ожесточенных споров, как вокруг клеток эмбрионов. Что странно, учитывая, что это практически одно и то же. В любом случае это было бы воистину важным достижением. К сожалению, в науке не все гипотезы подтверждаются.
Позже группа во главе с эмбриологом Джеймсом Линде показала, что гуманизированные жертвоприношения мышей начинают работать, когда эмбриону «исполняется» около девяти дней с момента зачатия. Мы не знаем, почему так происходит. Авторы предположили, что, возможно, в этот момент заканчивается период, когда клетки в мышиных эмбрионах гиперчувствительны к ошибкам в ДНК и гораздо легче уходят в апоптоз – запрограммированную клеточную смерть. Это что-то вроде естественного защитного механизма против беременности, которая могла бы привести к деформированному потомству. Предрасположенность к естественному аборту.
Но изначальная гипотеза Линде заключалась в том, что гуманизированные жертвоприношения начнут работать после восьмого дня, поскольку это момент, до которого из эмбриона все еще могут получиться монозиготные или однояйцовые мышата-близнецы. Как в естественных условиях, так и под воздействием некоторых лекарств. Я бы мог это интерпретировать так: возможно, до девятого дня Ви Джас не уверена, является ли эмбрион одним животным, несколькими или вовсе подлежит аборту.
book-ads2