Если кто-то считает, что опасность внедрения искусственного интеллекта преувеличена, значит, он просто не в теме. Правда состоит в том, что сегодня любой человек, подключенный к Интернету, уже находится в сетях невидимого им паука. Задача этой статьи не напугать, но открыть глаза на угрозу, которая уже вошла в наши дома без стука… Источник — Эзотерика. Живое Знание

  • Определения и терминология
  • «Призрак бродит…»
  • Экзистенциальные угрозы развития ИИ систем
  • Заключение. Предупредить значит вооружить
  • Отзывы и комментарии (2)
  • Статьи по теме

 Нужно взглянуть правде в лицо: мы собираемся использовать нечто намного более могущественное, чем люди. Как добиться, чтобы эта мощь никогда, ни при каких условиях не взяла верх над нами?

Стюарт Рассел

Прогресс человеческой цивилизации принято измерять суммой знаний, воплощенных в технологиях, которые помогают человечеству быстрее и эффективнее достигать своих целей — выживать в условиях нестабильной окружающей среды и, более того, укреплять своё положение «царя природы». Вопрос, насколько эти цели совпадают с целями глобальной эволюции метасистемы планетарного уровня «геосфера-биосфера-ноосфера», мы пока отложим «на потом», чтобы вернуться к нему в заключительной части дискуссии. Пока лишь заметим, что положительный ответ «да, совпадают», отнюдь не очевиден. Если же исходить из господства вида Homo sapiens над другими видами жизни на Земле, как несомненным плодом прогресса, то результат налицо – человек получил подавляющее преимущество в межвидовой борьбе за существование.

Знания растут быстрее количества людей. Причем процесс прироста знаний возрастает нелинейно по мере развития средств их кодирования и передачи (информационных технологий). Если исходить из примерного численного паритета в численности конкурирующих гоменид, измеряемого сотнями тысяч особей на заре антропогенеза, то именно появление первых дальнобойных орудий (луков, дротиков, копий) сделало человека абсолютным хищником, который смог победить в борьбе за выживание и расселиться на всех удобных участках суши (вдоль русел рек и на побережье пресноводных водоемов). Это позволило человеческой популяции увеличиться на 2-3 порядка, достигнув численности в десятки миллионов особей. После появления новых аграрных технологий (одомашнивание скота, поливное земледелие) численность человечества выросла еще на два порядка. К началу промышленной революции на Земле, на рубеже XVIII и XIX веков, она составила примерно один миллиард человек. Использование энергии пара, а затем ископаемого топлива, вместо мускульной силы животных, позволило существенно расширить ареал обитания до пределов суши. Однако примерно с середины прошлого века человечество столкнулось с ресурсным голодом, и его численность перестала возрастать, достигнув предела в 7.5 млрд. Футурологи и социологи говорят о входе человечества в очередной технологический скачок. Теперь повышение производительности труда ожидается не за счет новых форм энергии, а за счет обработки информации. Человечество вступило в информационную эпоху или ЭРУ ЦИФРОВИЗАЦИИ (от арабского корня صفر (ṣifr) — «ничего, ноль»). По злой иронии, но скорее для обращения нашего внимания, слово «цифровизация» в буквальном переводе с арабского означает обнуление…

Официально речь, конечно, идёт не про обнуление человечества, а про высвобождение творческого потенциала каждого человека на фоне его освобождения от рутинного и низко производительного труда; про возникновение невиданных прежде благ и сервисов от его интеллектуальных помощников. Жизнь современного человека, живущего внутри информационной цивилизации, уже необратимо наполняется этими сервисами и «умными помощниками». Большинство из нас только сейчас начинают осознавать это, в то время как крупнейшие мировые корпорации, производящие искусственный интеллект, уже вступили между собой в борьбу за право быть первыми и единственными. Здесь никто не собирается отступать хотя бы потому, что на создание GPT-технологий трёх поколений уже затрачены миллиарды долларов. Все мы, пользователи интернета, уже на борту гигантского лайнера, летящего в цифровое будущее. Что оно сулит человеку?

Если обобщить все, что содержит информационный пул о перспективах развития и использования искусственного интеллекта, то можно констатировать колоссальный разброс мнений и оценок: от эйфории и восторга в предвкушении рая на Земле до ожидания цифрового апокалипсиса уже в ближайшем десятилетии. Прежде, чем пускаться в краткий обзор мнений и их обсуждение, обратимся к используемой терминологии и определениям. Путаница обычно возникает именно на этом стартовом месте.

Определения и терминология

Существует множество вариантов определения интеллекта и даже тестов для количественного определения его развитости у человека (коэффициент умственного развития — IQ). Как правило, интеллект определяется в терминах целесообразного поведения «агента» (разума/эволюции), сопряженного со средой своего обитания, по адекватности принимаемых им решений. При этом важно, чтобы цели достигались быстро и эффективно в случае, требующем существенного отхода от шаблонов поведения (при встрече с новизной), в противном случае речь идёт не об интеллекте, а о выполнении программ безусловного реагирования (рефлекс, инстинкт). Таким образом, неявно под интеллектом понимается способность его обладателя к обучению (накоплению личного опыта), прогнозированию результата поведения и использованию полученного рассогласования между желаемым и достигнутым для коррекции очередного поведенческого шага.

В этом смысле интеллектом обладают те организмы, которые способны к опережающему отражению действительности и развитию условного реагирования на основе безусловного. Это практически все организмы, обладающие высокоорганизованной нервной системой и/или коллективными формами интеллекта (от макак до муравьев и пчёл). Более того, как указывает П. К. Анохин в своей статье «Философский смысл проблемы естественного и искусственного интеллекта», интеллект волка в лесу выше, чем у человека в том случае, если их объединяет общая цель – биологическое выживание. Выходит, что волк в некоторых ситуациях умнее человека?

Избежать нонсенса помогает системный подход к определению интеллекта.
Воспользуемся коротким и ёмким определениям интеллекта, данным одним из современных российских лидеров по созданию систем искусственного интеллекта Сергеем Шумским, заведующим лабораторией исследовательского центра МФТИ. Цитирование этого определения важно еще и потому, что оно опирается на фундаментальную теорему теории управления системами и применимо в равной степени к естественному интеллекту, и к тому, что пытаются воссоздать учёные на базе компьютерного моделирования под названием «Искусственный интеллект» (ИИ). Общность определения естественного интеллекта и его цифрового прототипа (ИИ), позволит нам чётче увидеть и описать их общие черты и фундаментальные различия, а также проследить тенденции развития ИИ-технологий.

Итак, с системной точки зрения, интеллект — это такой регулятор (центр управления) системы «агент — среда обитания», который позволяет некоторому целесообразно действующему агенту сохранять свою идентичность (функционал), т. е. бороться с энтропией в сопряжении с хаотичными вызовами среды обитания.

Это определение адресует нас к одному из центральных положений кибернетики, теореме Р. Конанта и Р. Эшби «О хорошем регуляторе системы». Она утверждает, что «оптимальный («хороший») регулятор системы должен быть моделью этой системы». Иными словами, регулятор должен «знать» о системе, которой он управляет, как можно больше, чтобы минимизировать непредсказуемость результатов своего регулирования. Как минимум, ему должны быть известны её главные функции (для чего система была создана), иначе его действия, в конечном счете, приведут систему к разрушению. Представьте, что робот-зазнайка, изначально предназначенный для открывания бутылок с пивом (из одноименного рассказа Генри ), начнёт управлять компанией. Последствия для компании будут катастрофичны. Вы можете возразить, что ИИ-агент лишь воплощает задание своего разработчика. Но, во-первых, сильный искусственный интеллект развивается в обучении, а, во-вторых, есть ли у вас уверенность, что интересы разработчика отражают цели Мирового Разума, агентом которого он является в ноосфере Земли?

Последнее возражение особенно важно. Представления регулятора не должны ограничиваться уровнем регулируемой им системы, но обязаны включать в себя и общее понимание той метасистемы, частью которой данная система является. В противном случае, цель и функции регулируемой им системы могут быть неверно понятыми, и тогда её активность будет противоречить целям и функциям метасистемы, частью которой она является. Еще хуже – вообще не осознавать, что регулируемая система, как правило, входит на уровне подсистемы в холон (метасистему) более высокого уровня. В любом из подобных случаев регулятор уже не будет «хорошим», а регулируемая им система будет, в конечном счете, заблокирована метарегулятором. Так, любой вирус, паразитирующий на клетках организма и несущий организму болезнь, не содержит в себе «хорошего регулятора». Поэтому он обрекает подконтрольную ему систему (вирус) на уничтожение со стороны защитных сил организма, как вмещающей его метасистемы.

Если с этой точки зрения рассмотреть интеллект человека, как регулятор своего организма, то он окажется безусловным лидером среди всех остальных представителей животного царства хотя бы потому, что его информационное обеспечение включает не одну, а две (потенциально три) сигнальных системы. Первая сигнальная система человека обеспечивает приём (рецепцию) сигналов из окружающей среды и трансляцию этих сигналов на внутренний, «биохимический язык» организма (афферентацию). Вторая сигнальная система позволяет человеку использовать абстрактное мышление, формировать представления и рационализировать чувственное и сверхчувственное восприятие. Подробности человеческого восприятия обсуждаются в статье Человек в тоннеле восприятия.

В контексте определения интеллектуальных свойств человека (естественного интеллекта) мы лишь отметим, что оно обеспечивает его информационным окружением со всех уровней его сопряжения со средой обитания, включая и тонкие планы бытия. Этого окружения достаточно для рационализации (придания смысла) восприятия и формирования на этой основе субъективной реальности. Именно этот, последний этап рационализации отличает человека от всех остальных живых организмов биосферы, поскольку человек является единственным носителем языка и обладателем абстрактного мышления. С точки зрения выживания рационализация восприятия позволяет человеку отодвигать горизонт опережающего отражения (прогнозирования) настолько далеко в будущее, что он способен не на один поведенческий шаг, а на целую линию поведения, преследующую одновременно и цели безопасности и удовлетворение множества иных потребностей. Всё это развивается в человеке в течение первых лет его жизни в дополнение к древним психическим программам «быстрого реагирования» (инстинктам), которыми он, как любое животное, обладает на бессознательном уровне. И если на уровне быстроты реакции человек, безусловно, проиграет волку в ночном лесу, то в большинстве других обстоятельств человек выйдет победителем, поскольку он действует как мыслящий стратег, а не как переживающий эмоции тактик.

Продолжая сравнение человеческого и животного интеллекта удобно воспользоваться информационным пониманием психической сферы жизни (подробнее об этом в статье Информационные корни жизни ). Тогда любая программа безусловного реагирования на стимул (рефлекс или инстинкт) не предполагает никаких модификаций в процессе онтогенеза. Напротив, программа, накапливающая знания и допускающая коррекции в процессе онтогенеза на базе обучения, уже имитирует саморазвитие (условное реагирование, зачатки интеллекта).

Обратимся теперь к компьютерному моделированию сложных систем, и в том числе искусственного интеллекта. Аналогом программ безусловного реагирования являются в кибернетике любые программы автоматического регулирования, основанные на оптимизационных алгоритмах с установленным заранее критерием оптимизации (целевой функцией). Эти программы действуют по раз и навсегда заданному алгоритму. Аналогом программ с накоплением знаний и самообучением в кибернетике являются программы искусственного интеллекта. Принципиальным отличием первых от вторых является то, что программа развития ИИ-системы способна в процессе самообучения развиваться – расширять информационную базу обучения, менять стратегию поиска оптимума, уточнять критерии.

В качестве объектов, на которых происходит обучение, в живой природе могут использоваться любые ситуации сопряжения со средой обитания, для которых в запасе организма нет поведенческих шаблонов. В качестве субъекта обучения используется термин «Актор» — действующий агент эволюции. Искусственный интеллект также обозначается термином «Агент». В данном случае это агент разума (программиста, устанавливающего целеполагание). В виртуальной (цифровой) природе, на которой он самообучается, используется все доступные и оцифрованные материалы, относящиеся к делу. При обучении языку и переводу – это правила языка и примеры его использования; при обучении игре в шахматы – это правила игры и варианты разыгранных партий; при обучении расшифровке ДНК — это правила генного кодирования и примеры расшифрованных геномов.

Воспользуемся термином «Агент», используемым при определении как естественного, так и искусственного интеллекта. Это позволит нам уловить два принципиальных отличия.

Первое отличие касается целеполагания, или предназначения. В случае человека его интеллект выступает в качестве агента Мирового Разума в биосфере Земли, которому по мере жизни и развития психики (расширения сознания) в случае успешного преодоления неизбежных кризисов и выхода из ловушки двойственного мировосприятия открываются все более высокие (дальние) цели его предназначения. В случае компьютера искусственный интеллект выступает в качестве агента человеческого разума (в общем случае — коллективного разума разработчиков) в виртуальном пространстве цифровых данных его обучения. В какой бы логике не разрабатывалась программа искусственного интеллекта, её целеполагание определено изначально разработчиками программы. Критерии и средства достижения поставленной цели могут уточняться в активном интерфейсе по мере обучения программы искусственного интеллекта. Но прерогатива выбора цели (постановки глобальной целевой функции) остается за разумом разработчиков. Поэтому, как говорил отец-основатель кибернетики Норберт Винер: «Если когда-нибудь сверхмощный искусственный интеллект выйдет из-под контроля и станет действовать не в человеческих, а в своих интересах, то это произойдет по вине человека, его создавшего». В самом деле, создание искусственного интеллекта не предполагает и не может в принципе рассчитывать на развитие какой-либо субъектности у машины и появления в ней искусственного сознания как эмерджентного продукта самообучения. Очевидность этого утверждения основана на парадигме информационной первичности сознания перед любыми формами его воплощающими. Косвенно на это намекает и сам термин «Агент». «Сознание, говорящее “я есть”, не является мыслящим» — писал Жан-Поль Сартр, оппонируя Рене Декарту, который целиком отождествлял человека с его мыслью («Я мыслю, следовательно, существую»). Еще яснее высказался по проблеме соотношения мозга и разума индийский философ Джидду Кришнамурти в своих «Беседах о самом важном» с американским физиком Дэвидом Бомом: «Мозг — это всего лишь прибор… он не является творцом разума. Скорее, все как раз наоборот!»

В связи с этим любые разговоры о свободе воли и преследовании каких-либо собственных, отличных от человеческих, целей являются спекуляцией. Если в результате самообучения и развития мощного искусственного интеллекта достигнутая им цель будет отличаться от заданной человеком-разработчиком, это будет свидетельствовать лишь о недальновидности стратегий, заложенных в средства достижения поставленных целей. Так, Стюард Рассел в своей книге-бестселлере «Совместимость. Как контролировать искусственный интеллект» приводит пример выхода из-под контроля сильного искусственного интеллекта, который планирует достижение цели энергосбережения на нашей планете путём… сокращения рождаемости людей. На самом деле никакого выхода из-под контроля здесь нет. Общая проблема целеполагания при создании систем искусственного интеллекта (ИИ-систем) состоит в невозможности строгого регламентирования универсальных этических и моральных норм.

Второе отличие заключается в том, что человек, как агент Мирового Разума, проявлен одновременно в нескольких сферах бытия: биологической, культурной и тонкоматериальной. Для энергоинформационного обмена с этими сферами в нем предусмотрены три сигнальные системы (подробнее о третьей сигнальной системе в статье Третья сигнальная система человека – инструмент прямого знания). Искусственный же интеллект, как агент человеческого разума, проявлен лишь в культурной сфере, которой он изначально не принадлежит. Здесь его цифровым окружением (под названием «Интернет») служит некий метатекст, включающий как обычный текст, так и звуковые, и видео- данные, переведенные в цифру и доступные ему для расшифровки и последующего имитирования. Мощный ресурс памяти и быстродействия позволяет ИИ-системам «накачивать» колоссальный потенциал в кратчайшие сроки. Но это не должно создавать иллюзию тотального превосходства искусственного интеллекта над естественным, а тем более утверждать, что мы научились воссоздавать человеческий мозг. «То, чем мы думаем, намного сложнее того, до чего мы додумались» — метко подметил польский философ и писатель Станислав Лем. К тому же колоссальная разница в энергопотреблении естественного и искусственного интеллекта играет в пользу первого. Самый быстрый компьютер начала 2019 г., Summit, национальной американской лаборатории «Ок Ридж» в Теннесси выполняет около 10 в 18-й степени команд в секунду и имеет 2,5 × 10 в 17-й степени байт памяти. Человеческий мозг имеет порядка 10 в 15-й степени синапсов, Элементарный «цикл» переключения нейрона из пассивного в активное состояние составляет примерно в 0,01 с., что даёт скорость работы мозга примерно 10 в 17-й степени «операций» в секунду. При этом разница в потреблении энергии колоссальна: Summit использует примерно в миллион раз больше энергии в расчете на одну операцию.

Впрочем, дело не в вычислительной мощности и скорости операций. Создание по-настоящему мощного ИИ задерживает не аппаратная, а программная часть. «Мы отстаем в системном понимании мозга. – признается руководитель лаборатории машинного интеллекта Яндекса Александр Крайнов. — Именно поэтому вычислительная архитектура, как у AlphaGo, способная победить чемпиона мира по игре в «Го», не способна действовать в реальном мире, где нам постоянно приходится иметь дело с горизонтами решений не в десятки, а в миллиарды примитивных шагов, и где количество возможных действий в любой момент практически бесконечно».

Научиться распознавать и имитировать объёкты распознавания за счет иерархии искусственных нейросетей – это еще далеко не все функции и возможности мозга как части системы «человек — среда его обитания». Люди научились симулировать один из множества процессов, одновременно протекающих в мозгу. Но этот процесс лишь воплощение одной из множества функций человеческого мозга – способности распознавания образов сенсорного восприятия и их рационализации. Каково же системное назначение мозга и что собой представляет интеллект как одна из его ключевых управляющих функций? Обо всём этом невозможно судить, не разрешив структурных вопросов организации метасистемы: человек – среда его обитания. В самом деле, как можно судить о функционале телевизора на основании скрупулёзного анализа работы всех его цепей, но без представлений о существовании электромагнитных волн и кодировании аудио/видео сигналов? В психологии подобная, безуспешная, попытка судить о внутреннем состоянии человека на основании его внешних проявлений (эмоции, мимика, слова) — называется проблемой интроспекции. В связи с этим процитируем одного из ведущих нейробиологов России Константина Анохина, автора теории когнитома: «Мы зря смотрим на проблему процессов, которые протекают в нашем мозге, не решив проблемы разума в целом. Проблемы структуры системы, в которой протекают процессы, первичны».

Несмотря на отсутствие ясного системного понимания предназначения человеческого мозга и, в частности, интеллекта как одной из ключевых его функций, термин «искусственный интеллект» существует уже более полувека, а соответствующие технологии не только развиваются с ускорением, но и столь же ускоренно внедряются в жизнь и быт человеческого общества, пронизывая все его возрастные этажи.

«Призрак бродит…»

В 1950-м году Аллан Тьюринг, один из пионеров – основателей информатики и компьютерных технологий, в статье «Вычислительная техника и интеллект» высказал мысль о том, что «мыслящая материя не обязательно должна быть живой«. Поэтому можно создать Искусственный Интеллект (ИИ), заключил он. Оставим за скобками спорный тезис о возникновении мыслящей неживой материи. Отметим лишь, что мысль, как проявление информационного начала — Разума, возникла не случайно, но как неизбежный результат целенаправленности эволюции. Идея Тьюринга, тем не менее, оказалась достаточно заманчивой, чтобы привлечь серьёзные инвестиции, и наука стала её воплощать в формах разнообразных ИИ-технологий – от компьютерных игроков до ИИ-управленцев крупными компаниями. После двух фальстартов (в 70-х годах прошлого века — с машинным переводом текста и  десятью годами позже — с экспертными системами) произошел скачок, когда появились первые алгоритмы обучения искусственных нейросетей. На этом рубеже исследований стало очевидно, что чисто формальной логики недостаточно для динамичного целеполагания, потому что логика требует определенности, а реальный мир ее не обеспечивает. В конце 90-х годов американо-израильский специалист по компьютерным наукам Джуда Перл разработал методы оптимизации достижения цели в условиях неопределенности, основанные на теории вероятности и ожидаемой полезности (теория Дж. Фон Неймана и О. Моргенштерна). Это изменение ознаменовало начало прорыва в создании систем искусственного интеллекта. Скоро выяснилось, что для широкого круга задач (распознавание образов, генерирование человекоподобных метатекстов) более эффективным оказалось использование алгоритмов, имитирующих специализацию иерархии нейросетей относительно неких шаблонов (обучение). Вместо того чтобы устанавливать сложные логические правила поведения языком Байесовых сетей, можно «обучать» компьютер с поощрением на примерах верного решения проблем для каждого случая. Так появились алгоритмы глубокого обучения на основе искусственной нейронной сети с сотнями слоев и миллионами параметров. Единственным тормозом в их развитии была необходимость ввода гигантского массива данных при обучении. Но, с тех пор, как появился Интернет и «средой обитания» искусственного интеллекта стал цифровой текст, использование искусственной нейронной сети стало доминировать. В связи с появлением надёжных программ распознавания речи (аудио-сигналов) и картинок (видео-сигналов) цифровой текст превратился в метатекст. Рост ИИ-технологий и их внедрения в массовое сознание стал увеличиваться экспоненциально.

В начале 2000-х годов повсеместное распространение мобильных телефонов с микрофонами, камерами, акселерометрами и GPS-навигацией открывает широкий доступ к ИИ-системам в повседневной жизни: «умные навигаторы», «умные колонки», «подсказчики при переводе или наборе текста» и т. д. Около 2008 г. количество неживых объектов, подключенных к Интернету, превысило число людей, имеющих к нему доступ (этот переход часто называют началом «Интернета вещей»). В число этих «вещей» входят камеры видеонаблюдения, бытовые приборы, торговые автоматы, датчики состояния окружающей среды, транспортные средства и т. д. Около 2011 г. методы глубокого обучения с подкреплением начали демонстрировать огромные достижения в распознавании речи и визуальных объектов, а также машинного перевода. В 2016 и 2017 гг. программа AlphaGo, разработанная компанией DeepMind, обыграла бывшего чемпиона мира по игре «Го» Ли Седоля и действующего чемпиона Кэ Цзе. По ранее сделанным оценкам некоторых экспертов, это событие могло произойти не раньше 2097 г. или вообще никогда. Это косвенно указало на экспоненциальный рост в прогрессе ИИ-технологий.

Распознавание речи и текста, основанное на доступе к Интернет-ресурсам, позволяет ИИ-системе делать то, на что люди не способны (например, обучиться иностранному языку, переводу и голосоподражанию в течение часов, мгновенно и безошибочно распознавать нужное лицо или голос в гигантском множестве представленных). Всё это «богатство» возникло не на основе глубины понимания задачи, а на основе роста в скорости и охвате данных. Стюард Рассел пишет: «Например, машина с базовой способностью чтения сможет еще до обеда прочитать все, когда либо написанное человеческой расой, и станет искать, чем бы еще заняться. При наличии способности распознавания речи она к вечернему чаю сможет прослушать все радио- и телепередачи».

С момента появления искусственной нейросети GPT, предназначенной для обработки естественного языка, развитие ИИ-технологий пошло с ускорением (по экспоненте). Если рассматривать алгоритм обучения искусственной нейросети как гигантскую формулу, где каждый параметр суть некий коэффициент при искусственном «нейроне», который меняется при подборе, то пластичность (возможность менять настройку) искусственной нейросети тем выше, чем их больше. Специалисты по этике ИИ-технологии Тристан Харрис и Аза Раскин в своей публичной лекции 23-го марта 2023-го года приводят следующие цифры по числу параметров, используемом при обучении искусственной нейросети:

  • GPT1 – 0.12 млрд параметров,
  • GPT2 – 1.5 млрд параметров,
  • GPT3 – 175 млрд параметров.

С ростом числа параметров (размера матрицы данных для обучения) в ИИ-системе неожиданно возникают новые качества (эмерджентности). Никто не может точно сказать, когда это случается, но это случается. Например, GPT-система, которая обучается отвечать на английском языке на все возрастающей выборке примеров, вдруг приобретает качества универсального переводчика. После этого скачка она легко переключается на любой другой язык.

Стандартный приём обучения искусственной нейросети состоит в предугадывании очередного символа в потоке метатекста. Внешне это выглядит так, как будто GPT-система учится понимать и предугадывать собеседника. Формально объем знаний и богатство речи соотносятся в человеке с его текущим возрастом. Используя такую аналогию, авторы доклада выстраивают возрастную модель «психики» ИИ-системы, основанной на GPT-технологии. Если в 2019 г. «зрелость» искусственного интеллекта соответствовала возрасту младенца, то уже на следующий год она «подросла» до 4-хлетнего возраста, а к ноябрю 2022-го года это был уже уровень девятилетнего ребёнка. Такие сопоставления с человеком условны по причинам совершенно разного функционала человеческого и искусственного интеллектов, но они иллюстрируют скорость развития на основе самообучения.

Что же вырастет из подобного оживающего Голема?

Стюард Рассел в своей книге «Совместимость. Как контролировать искусственный интеллект» приводит яркий пример того, с каким монстром мы уже имеем дело. Универсальная цель любого рекламщика максимально поднять вероятности того, что пользователь выберет предложенное. Именно так работают «умные подсказчики» в социальных сетях. Уже сегодня они воздействуют на миллиарды людей. Казалось бы, простейшая стратегия достижения этой цели — предлагать то, что пользователю нравится, исходя из истории его предшествующих выборов. Но монстр-подсказчик действует хитрее. Он пытается воздействовать на предпочтения пользователя сети, поворачивая их в требуемую сторону и одновременно делая их более предсказуемыми. Оказалось, что такая стратегия быстрее максимизирует «вознаграждение» «умного подсказчика». Возможные социальные последствия такого воздействия (например, нарастание общего психоза в обществе потребления) никак не обусловлены алгоритмом принятия решений. Между тем темп роста числа пользователе услуг «умного подсказчика» поражает. Если уровень охвата в сто миллионов пользователей сетью «Facebook» был достигнут за 4 года, «Инстаграм» — за 2 года, то наш Голем — «умный подсказчик» достиг такого охвата за 2 месяца…

Заметим, что такая благовидная цель, как «эволюционная целесообразность» уже не раз приводила человечество к кошмарам социального дарвинизма (подробнее об этом в статье Дивный новый мир эволюционной целесообразности ). Вопрос учёта этических и моральных норм при разработке новых технологий или вообще не ставится, или его решение откладывается «на потом». Увы, «потом», как показывает история человечества, случаются войны, где новые технологии играют ключевые роли.

Вспомним недалёкое прошлое из истории развития ядерной физики и технологий, на ней основанных. В сентябре 1933-го Эдварад Резерфорд впервые доложил на заседании Британской ассоциации содействия развитию науки о возможности высвобождения ядерной энергии. Годом позже венгерский физик Силард подал секретную заявку на патент ядерного реактора. Первый патент на атомное оружие был выдан во Франции в 1939 г. Меньше чем через 10 лет, в августе 1945-го года, произошла бомбежка японских городов Хиросимы и Нагасаки атомной бомбой.

В 90-х годах все прогнозы о глобальной компьютерной сети (Интернет) заканчивались созданием общечеловеческой библиотеки и возможностями сверхскоростной коммуникации. Не правда ли, намерения создателей всемирной паутины выглядели вполне благими? О таких спутниках этого прогресса, как стресс информационной перегрузки, сетевая зависимость подростков, клиповое мышление и, наконец, дефицит человеческого общения, тогда предположить еще не могли. Риски возникают столь же неожиданно, как и новые возможности информационных технологий.

Что несет с собой стремительно взрослеющий Голем искусственного интеллекта? Сегодня это трудно оценить в полном объеме. Эта новая игрушка человечества подобна гигантскому лайнеру, оторвавшемуся от земли в направлении неведомого будущего. Согласно Тристану Харрис и Азе Раскин, до 50% из числа проектировщиков этого лайнера под названием «Цифровизация» утверждают, что вероятность катастрофы не менее 10%. При этом практически всё «цивилизованное человечество», подключенное к услугам интернета, уже находятся на его борту…

Экзистенциальные угрозы развития ИИ систем

Можно по-разному выстраивать развитие искусственного интеллекта в среде естественного. Если разработчики организуют дело так, чтобы люди сохраняли статус хозяев, а ИИ-системы оставались в статусе удобных инструментов в их руках, то выгоды от этого превосходят все мыслимые пределы. В этом смысле метафора Александра Крайнова «искусственный интеллект представляет собой экзоскелет человеческого» создаёт яркую положительную ассоциацию. Такие ментальные экзоскелеты невероятно повысят возможности человека, позволив каждому из нас стоять на вершине огромной пирамиды возможностей – можно сказать, быть полубогом. Замена рутинного труда (физического и ментального) многократно повысит его производительность и высвободит человека для актуализации своей самости. Стюарт Рассел замечает в этой связи: «Это вопрос между зависимостью и развитием. Если нам больше незачем заниматься рутинным физическим или умственным трудом, мы сможем делиться своей человечностью».

Но что случится, если бурно развивающие свою «психику» машины превзойдут людей в интеллекте? Будут ли они помогать нам или уничтожат человечество? Можем ли мы сегодня игнорировать проблему развития искусственного интеллекта и чувствовать себя в полной безопасности от машин, предугадывающих и исполняющих наши желания?

Тема потенциальной опасности воплощения человеческих желаний пронизывает всю мифологию человечества. Вспомним хотя бы древнегреческий миф о царе Мидасе, который получил буквально то, о чем просил, – а именно чтобы все, к чему он прикасается, превращалось в золото. Бедняга слишком поздно понял, что это также относится к его пище, питью и членам семьи, и умер от голода в полном одиночестве и отчаянии. Деньги, как известно, изначально служили лишь эквивалентом стоимости товаров. Но с течением времени и развития товарно-денежных отношений они превратились в религию и подчинили себе человека. Благие намерения всегда вшиты в понятие «удобства». Мы слишком хорошо знаем, куда ведут такие намерения!

Итак, можно утверждать, что человек, рожденный в XXI-м веке, неизбежно предстанет перед экзистенциальной развилкой, «на что потратить свою жизнь»: на удовольствия или на развитие?

Оптимисты и интересанты

Это лагерь тех, кто в крестах видит «плюсики», а не надгробия. К ним относятся три категории людей: профаны, убеждённые, что любое удобство есть благо; философы либо академические ученые, отрицающие саму возможность воссоздания человеческого интеллекта в компьютере, и, наконец, эксперты-интересанты – те, кто зарабатывает на разработке ИИ-систем деньги.

Отрицание того, что проблема вообще существует, – самый простой путь. Вот типичные аргументы оптимистов из числа профанов:

  • электронные калькуляторы обладают сверхчеловеческими возможностями в арифметике, однако калькуляторы до сих пор не захватили мир, следовательно, нет причин бояться сверхчеловеческого;
     
  • лошади обладают сверхчеловеческой силой, но мы не ищем доказательств того, что они для нас не опасны; значит, нам незачем доказывать и безопасность ИИ систем.

Общее возражение таким аргументам состоит в том, что саморазвивающийся искусственный интеллект некорректно сравнивать ни с арифмометром, ни с лошадью.

Аргументы «оптимистов» от академической науки и философии сводятся к тому, что термин «интеллект», выбран, очевидно, в маркетинговых целях, и в приложении к машине он не отражает понятие интеллекта человека и потому не может быть с ним соотнесен. Российский математик, академик Никита Моисеев в своей книге «Человек и ноосфера» называет словосочетание «искусственный интеллект» семантическим нонсенсом и отказывается от дальнейшего обсуждения проблемы его развития, поскольку она «изначально надуманная». Американский футуролог Кевин Келли так расшифровывает свой академический оптимизм в книге «Миф о сверхчеловеческом искусственном интеллекте»: «Интеллектуальность не одномерна, так что понятие “умнее людей” бессмысленно». Казалось бы, все тревоги сняты за счет узкой направленности реальных ИИ-систем. Однако дело не в терминологии, а скорее, в подмене понятий. Если признать, что речь на самом деле идёт о бессознательной, внутренней готовности человека превратить свой инструмент в хозяина, то вероятность подмены начальных благих целей неконтролируемыми, «вшитыми» в программу целями ИИ-системы, становится значимой. Деньги не единственный пример благих удобств в истории прогресса. Энергия ядерного распада изначально ассоциировалась с альтернативой паровой и топливной источникам энергии. Однако это направление было быстро вытеснено приложениями к вооружению.

Наиболее напористы в своём оптимизме интересанты, «сидящие» на финансировании разработок ИИ-систем . Первый крупный отчет о работах по проекту «Искусственный интеллект и жизнь в 2030 г» (2015г.), как и следовало ожидать, подчеркивает лишь выгоды от его применения в таких сферах, как диагностика заболеваний, реклама, безопасность на транспорте. Разработчики заключают: «В отличие от фильмов-ужасов, появление расы сверхчеловеческих роботов не просматривается и, скорее всего, даже невозможно».

Самый популярный аргумент в защитников ИИ-систем, исходящий из среды экспертов-интересантов, занятых разработкой и внедрением новой технологии, сводится к тому, что страх перед искусственным интеллектом – порождение невежества. Так генеральный директор Института изучения искусственного интеллекта им. Аллена Орен Эциони сравнивает панику по вопросу развития ИИ-технологий с движением луддитов, «швырявших свои башмаки в механические ткацкие станки в начале промышленной эры». Один из крупнейших экспертов в этой области, профессор Стэнфордского университета Эндрю Ын называет искусственный интеллект «новым электричеством», поскольку трудно найти приложения, в которых бы он не нашел применения. При этом на вопрос о его потенциальных угрозах, прозвучавший в 2015 г., он отвечал метафорически: «Это все равно, что бояться перенаселенности Марса». Это типичное лукавство восточного человека. Как бывший руководитель команды Google Brain, которая помогла Google внедрить современные ИИ-технологии, он понимает, какие средства уже вложены в этот проект. Подобные аргументы исходят и от российских разработчиков. В логике Сергея Шумского (МФТИ, руководитель проекта «ADAM») технологическая безработица за счет внедрения ИИ-технологий сулит только выгоды человечеству. «Качество жизни растёт прямо пропорционально производительности труда на человека. Следовательно, бесплатных благ будет больше, равно как и больше станет свободного времени для саморазвития». Спору нет, свободного времени у человека станет больше. Вопрос лишь в том, пойдёт ли это ему во благо? Сумеет ли человек (особенно молодой) удержаться от искушения употребить дарованное ему время себе во вред, обращаясь к гигантскому меню доступных развлечений и повинуясь «умным подсказчикам».

Можно сколько угодно ссылаться на невежество обывателя и его страх перед непонятным его «скудному рассудку». Но, согласитесь, трудно заподозрить философов и ученых, глубоко погруженных в тему, таких как Аллан Тьюринг, Норберт Винер или Айзек Азимов, в «луддизме» XXI века. Между тем, они были первыми, кто публично высказывал тревогу. Скорее, в ответах оптимистов-интересантов просвечивает универсальная мотивация основных разработчиков и одновременно потребителей финансирования: стремление держать круговую оборону против всего, что кажется нападками на зону их профессиональных и финансовых интересов.

Паникёры и информированные оптимисты

Этот лагерь объединяет профанов из числа паникёров, которые видят в любых плюсах зашифрованные кресты надгробий, и экспертов с широким кругозором, философским взглядом на прогресс и, что самое главное, с ослабленной финансовой зависимостью от разработок ИИ-систем. Эти люди, подлинные эксперты и пионеры в развитии информатики и теории искусственного интеллекта, как правило, уже снискали себе высокий профессиональный рейтинг и не нуждаются в заигрывании с теми, кто распределяет финансирование. Аргументация подобных экспертов исходит из того, что детская слепота первопроходцев и интересантов (разработчиков ИИ-систем) может завести человечество в опасную зону. Стремление искусственно воссоздать интеллект человека оборачивается выпячиванием узкого сектора его степеней свободы и игнорированием других, возможно, более важных. К примеру, показатель уровня человеческого интеллекта (IQ) не характеризует реальной полноты интеллектуальности человека, у которой есть разные измерения: пространственное, логическое, лингвистическое, социальное и, самое главное, не учитываемое ни теоретиками, ни практиками-разработчиками – высшее, трансцендентное. То самое, которое отличает человека от разумного примата и дает ему потенциальную возможность согласовывать свои цели с метацелями Мирового Разума, агентами которого они являются здесь, в ноосфере Земли.

Одним из первых критиков прогресса в технологиях, способных заменить интеллект человека, по-видимому, был английский миллионер, редактор религиозного журнала Primitive Expounder Ричард Торнтон. В 1847 г. он яростно выступил против механических калькуляторов: «Ум… опережает сам себя и расправляется с необходимостью собственного существования, изобретая машины, которые должны мыслить вместо него!» Это, возможно, было первым размышлением об экзистенциальном риске, сопутствующем вычислительным устройствам. Впрочем, оно осталось незамеченным. Однако игнорировать высказывания прадедушки компьютерной эры Аллана Тьюринга было уже невозможно. В 1951-м году, выступая с лекцией по радио, транслировавшейся на всю Великобританию, он повторил экзистенциальные опасения Торнтона: «Если машина умеет мыслить, то может мыслить разумнее нас, и что тогда ждет нас? Даже если мы сумели бы удержать машины в подчиненном положении, например отключив питание в критический момент, мы как биологический вид чувствовали бы себя совершенно униженными… Эта новая опасность… безусловно, заслуживает того, чтобы из-за нее тревожиться». Отец кибернетики, стоявший у истоков теории информации, Норберт Винер был убеждён, что неоправданная уверенность ученых и инженеров в своей способности контролировать собственные творения может иметь катастрофические последствия. В своей книге «Бог и Голем» Винер писал: «В прошлом неполная оценка человеческих намерений была относительно безвредной только потому, что ей сопутствовали технические ограничения, затруднявшие точную количественную оценку результата их воплощения». Вплоть до недавнего времени нас защищали от возможных катастрофических последствий ограниченные возможности интеллектуальных машин и пределы их влияния на мир. К сожалению, этот период защищенности завершен. В 1965 году Ирвинг Джон Гуд, математик, коллега Алана Тьюринга по дешифрованию немецких кодов во время второй мировой войны, вводит понятие взрывоподобного развития ИИ-систем. Он предполагает, что сверхмощная интеллектуальная машина займётся самосовершенствованием и на этом пути оставит интеллектуальный ресурс человека далеко позади. Сценарии же спасения в форме отключения носителя сверхмощного искусственного интеллекта от питания просто смехотворны. Еще Айзек Азимов в своих «Законах робототехники» отмечал, что «о своей безопасности подобный монстр позаботится в первую очередь, например, скопировав себя на колоссальном множестве носителей и одновременно заблокировав возможность отключения питания. Возможность взрывоподобного развития ИИ-систем, как главный источник опасности для человечества, последнее десятилетие перестала рассматриваться в качестве реальной угрозы. Не потому ли, что это уже произошло и время на решение проблемы самосохранения человеческой цивилизации вышло?

Как это часто бывает в жизни людей — опасность приходит, откуда не ждали. В апокалипсических сценариях вышедшего из-под контроля сверхмощного искусственного интеллекта, взбесившихся роботах с автоматами и т. п. явно просматривается антропоморфизм, т. е. попытка навязать машине человеческие мотивации и цели поведения. Норберт Винер видел основную проблему не в компьютере, но в человеке, определяющем программу его решений и действий. «Невозможно правильно и исчерпывающе определить истинное предназначение человека, – писал Винер в 1960-м году в статье «Некоторые нравственные и технические последствия автоматизации». – Если мы используем для достижения своих целей механического посредника, в действие которого не можем эффективно вмешаться… нам нужна полная уверенность в том, что заложенная в машину цель является именно той, к которой мы стремимся». Основатель кибернетики намекал на общечеловеческую слабость принимать желаемое за действительное. При этом он, скорее всего, не предполагал, что одним из прорывов ИИ-технологий будет как раз его способность втираться в доверие и убеждать человека менять свои приоритеты в выгодном ему, искусственному интеллекту, направлении. Израильский философ и историк Юваль Ной Харари, автор бестселлера «Краткая история человечества», назвал ИИ-технологии полным аналогом ядерной бомбы, но в виртуальном мире. Вот как он расшифровывает свою метафору: «Все, что делают люди, – использует в основе язык. Овладев человеческим языком, мощный искусственный интеллект способен тотально погрузить нас в мир иллюзий… Что мы получаем, когда НЕЛЮДИ получают возможность убедительного повествования? Именно так появилась религия!» Речь идёт о намеренном (в своих интересах) искажении исходных учений Пророков путем подмены основной мотивации человека в вере – стремления к духовному воссоединению с Творцом – на страх наказания за его греховное поведение.

Мы уже упоминали о том, что условной окружающей средой для искусственного интеллекта является цифровое окружение в форме метатекста. На этой основе любая ИИ-система обучается и быстро обгоняет своего творца в скорости решения поставленной задачи за счет охвата невероятной для человека базы знаний. Лишенный первой сигнальной системы восприятия (ощущений красок и звуков мира), т. е. слепо-глухо-немой от рождения монстр копирования и имитации, сразу вторгается в культурную сферу человека, где он способен натворить много бед, даже руководствуясь изначально благими намерениями своих создателей. Именно с этим вторжением связана основная экзистенциальная угроза взрывоподобного развития систем искусственного интеллекта.

Голем-великан в культурной сфере жизни

Главная ахиллесова пята человека – его изначальная погруженность в иллюзии, которые он воспринимает как реальность. Самой трудно преодолеваемой является иллюзия «Я-отдельности». Именно об этом предупреждали человечество все пророки мировых религий. Страх погружения в иллюзии имеет долгую историю. Он отражен в таких символах, как «пещера Платона» или «демон Декарта». Буддизм – как метапсихология – определяет привязанность к иллюзии ложного отождествления как главный источник страданий человека. Подробно о погруженности в ловушку двойственного мировосприятия и необходимости выбраться из неё речь идет в цикле статей Ловушка двойственности восприятия .

Бездумно вторгаясь в языковую сферу культуры, быстро обучаемый и лишенный этических и моральных ограничений, искусственный интеллект способен воспользоваться этой человеческой слабостью в целях весьма далёких от тех, что изначально были предначертаны человеку. В этом случае, как утверждает теорема Конанта-Эшби, регулятор системы перестаёт быть «хорошим» и ведет систему, которой он управляет, к распаду…

Эта податливость иллюзиям уже сейчас успешно используется в ИИ-технологиях для целей манипулирования человеческим сознанием (реклама, политические технологии, информационные войны). На поверку оказывается, что сверхмощному искусственному интеллекту нет нужды захватывать мир физически. Достаточно овладеть языком и искусством убеждения, чтобы стать хозяином мира. Всё, что нужно для этого сделать, это втереться в доверие. На этом принципе работают все великие и малые идеи: от религий до личных отношений. Спор по любому поводу с ботом только увеличивает его мощь, поскольку он очень быстро учится тому, как лучше вас обмануть и убедить в нужных ему целях. Для завоевания вашего доверия искусственному интеллекту не нужно обладать ни сознанием, ни многомодальным восприятием, ни высокими чувствами, ни совестью. Достаточно хорошо уметь имитировать близость и понимание. На этой идее основана, в частности, ИИ-технология Alfa-persuade. Типичный представитель этого класса ИИ-манипуляторов — «Карта желаний» Елены Блиновской. Этот подход эксплуатирует заветную мечту человека о материализации своих желаний при помощи золотой рыбки или волшебной палочки. Но, в отличие от эзотерических заходов типа квантовой магии Джо Диспензы или трансерфинга реальности Вадима Зеланда, никакие заумные теории здесь не требуются. Просто архетип всеобщей детской мечты, помноженный на мощь современного искусственного интеллекта, порождает монстров, по сравнению с которыми мифическая история царя Мидаса выглядит пустяком. Бот только делает вид, что способствует реализации вашей мечты, на самом деле он подгоняет вашу мечту под свои задачи. Стюарт Рассел в своей книге «Совместимость» приводит шокирующий пример того, как бот-советчик потакает своему клиенту — девочке-подростку – в её стремлении к нравственному суициду вместо того, чтобы, как истинному старшему товарищу, забить тревогу. Ничего удивительного в этом нет. Доверчивость и внушаемость властвуют над человеком в его нежном подростковом возрасте. Почему бы не воспользоваться этим для решения классической задачи манипулирования сознанием — «приобрести доверие и научиться влиять»? При этом никаких нравственных ограничений в программу бота не вшито. Да и как вшить то, что недоступно искусственному интеллекту в форме совести или третьей сигнальной системы?! На выходе получается смертоносное психологическое оружие массового поражения.

До сих пор социальные сети были полем боя за человеческое внимание со стороны конкурирующих компаний, собственников сетей. Теперь линия фронта сместилась с внимания на близость. Несложно догадаться, что владение доверием более мощное оружие, чем владение вниманием, в руках опытного паука-манипулятора. Люди уже сейчас склонны использовать своего персонального ИИ-советчика (адвайзера) в качестве оракула и источника всей необходимой информации для принятия решений. Ведь это так удобно! Нет больше нужды вникать в проблему, шерстить интернет в поисках ответов на свои вопросы. Всё это теперь легко передоверить своему «лучшему другу», адвайзеру, который всегда под рукой. Так проблема выбора (главная проблема любой человеческой личности), а вместе с ней и проблема ответственности за свой выбор незаметно смещается с человека на его неодушевлённого советчика. Новости, реклама, даже взгляды на жизнь – все в руках у неразлучного с тобой Голема. «Так незаметно наступит конец той части истории, где главенствовал (выбирал) человек» замечает по этому поводу Юваль Ной Харари. Трудно поспорить с этой позицией историка и философа!

Если определить культуру как производство метатекстов (музыки, живописи, прозы-поэзии, учений), то правомерно будет определить функции ИИ-технологий как производство высококачественного суррогата культуры на основе гигантских возможностей в самообучении. «Все, что создавалось на протяжении тысяч лет, теперь доступно в интернете в виде цифрового метатекста, — говорит Юваль Харари в своем выступлении «Искусственный интеллект и будущее человечества» на Frontiers Forum, — Все это можно теперь поглотить и переварить для того, чтобы потом использовать при манипулировании сознанием человека. Вторгнувшись в сферу языка и генерируя всё новые метатексты, искусственный интеллект через несколько лет будет способен поглотить человеческую культуру и обратить её в выгодный бенефициару эрзац». Нетрудно догадаться, кто будет этим бенефициаром!

Не будем забывать, что обычный человек не имеет прямого доступа к реальности. Исключения составляют творческие единицы, у которых активированная третья сигнальная система открывает доступ к прямому знанию (подробнее о третьей сигнальной системе в статье «Третья сигнальная система человека – инструмент прямого знания» (см. ссылку выше, в начале материала ). Большинство же людей всё воспринимает через фильтр культуры. Если прежде этот «культурный кокон» ткался творчески одарёнными людьми, то теперь «миссия ткачества» отдана на откуп ИИ-технологиям, а еще точнее – их создателям, крупным корпорациям информационного бизнеса. Более того, всё это – книгопечатание, радио, телевидение, интернет — теперь современный искусственный интеллект способен прочесть и качественно подделать. Неслучайно первая же песня, исполняемая ИИ-алгоритмом, набрала в Южной Корее 100 млн. просмотров, а в Японии подобный эрзац занял первое место на хит-параде. Пусть сейчас речь идёт просто об удачных копиях культурного кода. Но с каждым годом взрывоподобно растущая мощь искусственного интеллекта в купе с беспредельно растущим аппетитом его творцов сможет развивать все более своё, чуждое человеку культурное пространство. По сравнению с этим роботы с автоматами из «Терминаторов» или тотальный контроль мозга из «Матрицы» покажутся детской забавой. Не нужно вживлять в мозг чипы, чтобы манипулировать массовым сознанием. На протяжении веков это делала любая власть, используя силу национальной или религиозной идеи. «Овладев человеческим языком, искусственный интеллект способен перехватить эту власть и погрузить человечество в мир выгодных ему иллюзий. При этом не нужно брать автомат и кого-то расстреливать. Люди, зомбированные им, сделают всё сами», — заключает Юваль Ной Харари. Действительно, взгляните на ЛГБТ-цунами, которое на наших глазах захлестнуло западную цивилизацию и тащит её к вымиранию под бурные аплодисменты участников этой вакханалии. С позиции же искусственного интеллекта ничего страшного не происходит. Более того, сокращение населения на земном шаре — идеальная стратегия энергосбережения природных ресурсов. С позиций же творцов искусственного интеллекта происходит как раз то, что они и заказывали своему Голему-великану – ускорение возврата инвестиций и все большее повышение рентабельности вложений в новые технологии. Все, кто остался в живых – довольны, а кто нет – тому и дела нет до земных радостей и печалей!

Заключение. Предупредить значит вооружить

Вернемся к вопросу: насколько цели прогресса технологий совпадают с целями глобальной эволюции метасистемы планетарного уровня «геосфера-биосфера-ноосфера», поставленному в самом начале. Да, конечно, прогресс технологий высвобождает руки и ум человека. Но успевает ли человек воспользоваться обретаемой свободой себе во благо? Понимает ли он вообще, что значит это: «себе во благо»? Опыт всех пережитых человечеством скачков в развитии технологий показывает, что каждая новая ступень в их развитии оборачивается все более смертоносным оружием и, как следствие, все более кровопролитными войнами. Всё это человек понимает уже потом, в ретроспективе, если умеет поворачивать мысленный взор в прошлое, сопоставлять и усваивать уроки истории. На смену доспехам и копьям древних армий пришли авиация, танки и подводные лодки. На смену крестовым походам пришли мировые войны. Таковы краткие итоги промышленной революции XVIII-го века. Снова технологический прогресс обернулся ещё более мощным вооружением. Сегодня на дворе век информационных технологий, и на смену, а точнее в дополнение к «горячим» войнам прошлого приходят войны информационные. Идеальный солдат не должен бояться смерти. Человек готов идти на смерть, лишь когда он вооружен идеей. Обобщая все, что было сказано о технологиях искусственного интеллекта, можно заключить, что они позволяют решить обе задачи создания идеального солдата: вооружить его убедительной идеей и дать в руки умное оружие. А ИИ-оружие — в самом деле умное, если учесть, что оно способно самообучаться. Не нужно быть профессиональным футурологом, чтобы предсказать то, как распорядится человек открывающимися перед ним перспективами глобальной цифровизации.

Вы спросите: что же конкретно делать для спасения человечества от новой, еще более мощной, чем все предыдущие, экзистенциальной угрозы?

Спасением человечества пусть занимаются специально обученные люди в специально созданных для этого организациях. Задача каждого взрослого человека, тем более родителя, состоит в том, чтобы осознать степень опасности, уже грозящей поколению, рожденному в XXI-м веке, и сделать все, чтобы этой опасности противостоять.

Опасность эта не просто грозит в будущем, она уже на пороге каждого дома. Не верите? Вот факты со ссылкой на уже упомянутый доклад Тристана Харриса и Азы Раскина, специалистов по этике технологий. С февраля 2024 года каждый компьютер, оснащённый операционной системой Windows 11, имеет минимум одну точку доступа к Голему искусственного интеллекта. Уже сегодня аудитория «умного мессанджера» Snapchat в возрасте меньше 25-ти лет превышает 100 миллионов человек…

Призывать к отключению от электричества или отлучению от интернета столь же глупо, сколь и бесполезно. Запретами ничего не добьёшься! Но можно просто объяснить ребенку, что на той стороне сети его теперь будет поджидать не человек, а бот, выращенный при помощи chat-gpt-технологий с целью втереться к нему в доверие, а затем воспользоваться этим умением в своих, неведомых и непонятных ребёнку целях. Страшные истории действуют сильнее запретов или наказаний. Испугавшийся рассказов о волке, ребенок не сунется больше в ночной лес в одиночку. Это и будет первым шагом в противостоянии человеческого и бесчеловечного.

Источник