СюжетыОбщество

Возможности огромны, но — страшно очень

В США идут дискуссии о том, как не дать искусственному интеллекту вырваться из-под контроля и стать очередной угрозой человечеству

Возможности огромны, но — страшно очень

Фото: Александр Коряков / Коммерсантъ

«Искусственный интеллект», об опасности которого рассказывали популярные кинобоевики в 80-е и 90-е годы прошлого века (как, например, цикл о Терминаторе, показавший мрачную перспективу «бунта машины против человека»), сегодня становится реальностью. И американские политики, в детстве и юношестве смотревшие эту кинофраншизу, опасаются последствий бурного развития AI (Artificial intelligence, общепринятая аббревиатура для ИИ — искусственного интеллекта).

В мае в Белом доме прошло совещание под председательством вице-президента Камалы Харрис, которое посетил президент Байден — «ввиду важности темы». А в обеих палатах Конгресса прошли слушания, на которые были вызваны представители компаний-разработчиков ИИ, а также эксперты из мира науки. Искусственный интеллект рассматривается одновременно как огромная возможность и страшная угроза. И если технический прогресс не остановить, то его можно пустить в определенном направлении — с помощью регулирующих законов. Так полагают здешние политики. На это надеются ученые. Это нужно сделать, говорят сами производители ИИ.

Бывший министр финансов США Лоуренс Саммерс сказал, что такие инструменты ИИ, как ChatGPT (популярное приложение к айфонам, айпадам и прочим гаджетам), могут быть столь же эффективными, как печатный станок, электричество или даже колесо или огонь. Совсем другое сравнение от производителей ИИ и инвесторов, таких как генеральный директор Tesla и Twitter Илон Маск: риски, связанные с этой технологией, сопоставимы с пандемиями и ядерной войной. Маск, соучредитель Apple Стив Возняк и другие так называемые «визионеры», представители технической и интеллектуальной элиты, призвали на шесть месяцев остановить работы по развитию искусственного интеллекта — систем более мощных, чем существующая GPT-4 — до принятия строгих регулирующих законов, ставящих отрасль под контроль и тем самым, возможно, снимающих риски для всего человечества.

Майский опрос, проведенный Reuters/Ipsos, показал, что почти две трети американцев считают, что ИИ представляет опасность для человечества. И тем не менее охотно пользуются новыми программами.

Отрасль развивается очень быстро. Сенатор Джош Хоули, республиканец из Миссури, отметил, что слушания в Конгрессе не могли состояться год назад, потому что ИИ еще так широко не вошел в общественное сознание. Он предвидит два пути, по которым может пойти технология, сравнив ее будущее

  • либо с печатным станком, который расширил возможности людей во всем мире путем распространения информации,
  • либо с атомной бомбой, которую он назвал «огромным технологическим прорывом с ужасными последствиями».

Сенатор Джош Хоули. Фото: AP / TASS

Сенатор Джош Хоули. Фото: AP / TASS

Открывая слушания в подкомитете по защите конфиденциальности, технологиям и праву, сенатор Ричард Блюменталь, демократ из штата Коннектикут, в начале слушаний запустил запись: программа ИИ не только написала ему текст выступления, четко отразив его позицию в этом вопросе, но и наговорила его голосом сенатора. Это забавный трюк, отметил Блюменталь, а теперь представьте себе, что ИИ этим же голосом объявил что-то вредное и лживое, например, о капитуляции Украины перед Россией. В 1996 году, когда интернет только развивался, американский Конгресс принял закон, освобождающий провайдеров от ответственности за распространение чужой информации — так называемый «Закон о приличиях в сфере коммуникаций», раздел 230. Волна фейков, распространяемая в соцсетях, стала возможной благодаря «бомбе замедленного действия», заложенной тогда.

Сенатор Ричард Блюменталь. Фото: Zuma \ TASS

Сенатор Ричард Блюменталь. Фото: Zuma \ TASS

Сегодня американские СМИ рисуют катастрофические картины.

Прежде всего — использования ИИ для создания «дипфейков» на президентских выборах-2024.

По сравнению с прошлыми фейками от хакеров в соцсетях, теперь речь идет о дезинформации на новом уровне, когда подделаны и видео, и аудио, и главное — избиратель, занятый своими проблемами, не имеет возможности отличить, где правда, а где фальшивка. Тем более что «Большой брат следит за тобой». Как утверждают противники BigTech-корпораций в сфере коммуникационных технологий, владельцы интернет-платформ знают о пользователях все: политические воззрения, вкусы, привычки, хобби и т.д. К каждому можно подобрать электронный ключ. Вот некоторые из способов манипуляций:

  • автоматизированные автоматические сообщения голосом кандидата, инструктирующие избирателей проголосовать в неправильный день;
  • аудиозаписи кандидата, признающегося в преступлении или выражающего расистские взгляды;
  • видеозапись, показывающая, как кто-то произносит речь или дает интервью, которых никогда не было;
  • поддельные изображения, созданные для того, чтобы выглядеть как репортажи местных новостей, ложно утверждающие, что кандидат выбыл из гонки.

Море возможностей.

Политические фейки с использованием ИИ уже применяются, отмечают журналисты «Ассошиэйтед Пресс» Дэвид Клеппер и Эли Свенсон.

В интернете размещены фейковое видео, на котором президент Байден произносит речь с нападками на трансгендеров, и сгенерированное ИИ изображение детей, «изучающих сатанизм» в библиотеках.

В свою очередь, так же была размещена фальшивая фотография Трампа в уголовном суде Манхэттена, когда бывшего президента привлекли к уголовной ответственности за фальсификацию деловой документации. Другие изображения, созданные ИИ, показали, что Трамп якобы сопротивляется аресту, хотя их создатель быстро признал, что он создал и разместил «фальшивку».

Интернет-реклама, выпущенная Национальным комитетом Республиканской партии сразу после того, как президент Джо Байден объявил о своей кампании по переизбранию, начиналась со странного, слегка искаженного изображения Байдена и текста «Что если самый слабый президент, который у нас когда-либо был, будет переизбран?». Республиканский штаб признал использование ИИ при создании ролика. Дональд Трамп тоже «поразвлекался», разместив в своей социальной сети Truth Social видео ведущего CNN Андерсона Купера (известного критика 45-го президента), исказившее его реакцию на телевизионную программу с участием Трампа в студии этого канала. Видео было создано ИИ с использованием инструмента клонирования голоса.

Республиканские законодатели выступили с законопроектом о введении специальной маркировки в предвыборной рекламе, созданной с помощью ИИ. Член палаты представителей Иветт Кларк из штата Нью-Йорк также выступила спонсором закона, требующего, чтобы любой, кто создает синтетические изображения, добавлял специальный знак, указывающий на этот факт. Кларк заявила, что ее самый большой страх заключается в том, что ИИ может быть использован в ходе президентской кампании для создания видео или аудио, которые подстрекают к насилию и настраивают американцев друг против друга.

«Важно, чтобы мы не отставали от технологий, — сказала законодательница. — Нам нужно установить ограждения. Людей можно обмануть, и это занимает доли секунды. Люди заняты своей жизнью, и у них нет времени проверять каждую часть информации. Вооруженный ИИ в политический сезон может быть чрезвычайно разрушительным».

Белый дом выпустил пресс-релиз по итогам встречи с главами компаний Alphabet, Anthropic, Microsoft и OpenAI. Американское правительство считает, что компании несут основную ответственность за обеспечение безопасности своих продуктов до того, как они будут развернуты или обнародованы. Но, понимая, что прогресс не остановить, Белый дом намерен одновременно увеличить инвестиции в научные исследования искусственного интеллекта и разработать меры по обеспечению национальной безопасности.

Объявлено о выделении 140 миллионов долларов на открытие семи новых национальных научно-исследовательских институтов искусственного интеллекта.

Эти инвестиции доведут общее количество институтов до 25 по всей стране и расширят сеть участвующих организаций почти во всех штатах.

Администрация объявила об обязательстве ведущих разработчиков ИИ, включая

  • Anthropic,
  • Google,
  • Hugging Face,
  • Microsoft,
  • NVIDIA,
  • OpenAI
  • и Stability AI,

принять участие в публичной оценке систем ИИ в соответствии с принципами «ответственного раскрытия информации». В плане администрации Байдена разработка и принятие специальных актов — «Билля о правах в области ИИ» и о «Структуре управления рисками ИИ». В первом случае защищаются права граждан, пострадавших от деятельности, связанной с ИИ, в частности, планируется защита авторских прав художников, композиторов и других авторов, чьи произведения станут «базой» для создания генерированной ИИ новой продукции. Во втором — планируется создать Федеральное агентство по контролю за ИИ, глава которого войдет в состав кабинета министров.

Фото: Zuma \ TASS

Фото: Zuma \ TASS

На слушаниях в сенате встретились два поколения. 38-летний глава Open AI Сэм Олтман (Sam Altman) выступал перед сенаторами, средний возраст которых составляет почти 65 лет (64,8). Законодатели признавались, что им трудно понять весь спектр возможностей, а вместе с тем угроз, которые несет миру ИИ. Open AI — компания, созданная в Сан-Франсиско в 2015 году — ведущий разработчик больших языковых моделей (LLM) и других инструментов искусственного интеллекта. В январе этого года Microsoft объявил о многолетних многомиллиардных инвестициях в OpenAI после предыдущих разовых инвестиций в 2019 и 2021 годах. Как объяснил законодателям Олтман, нынешнее поколение моделей ИИ представляет собой крупномасштабное статистическое прогнозирование. Когда машина получает запрос человека, она пытается предсказать вероятный ответ. Эти модели работают аналогично функциям автозаполнения на современных смартфонах, электронной почте или Word — программного обеспечения для обработки, но в гораздо «большем и более сложном масштабе»: от написания резюме при устройстве на работу до создания компьютерных кодов программирования. В ноябре 2022 года была выпущена программа ChatGPT, а уже в марте этого года — GPT-4, которая способна производить «более полезные, более творческие, более совместные и более точные результаты, чем предыдущие продукты», отметил Олтман.

Среди клиентов — банк Morgan Stanley и образовательная Академия Хана: ИИ помогает и в контроле за банковскими операциями, и в виртуальном обучении студентов.

  • Программа ИИ Stripe помогает в оформлении технической документации и способна выявлять ошибки и мошенничества в бизнес-контрактах.
  • Harvey, платформа для юристов, использует GPT-4 при сборе и обработке информации, составлении запросов и другой документации, что освобождает юристам время, давая им возможность качественного обслуживания большего числа клиентов.
  • Speak, самое быстрорастущее англоязычное приложение в Южной Корее, использует Whisper — систему искусственного интеллекта с автоматическим распознаванием речи для обеспечения всех изучающих английский язык богатой разговорной практикой.
  • Weave использует инструменты ИИ для создания платформы совместной работы ученых, в частности, сосредоточенных на прорывах в онкологии.
  • Программа DALL·E стала популярным инструментом для улучшения и ускорения творческих процессов, от быстрого создания «раскадровки» до написания текстов, аудио- и видеопродукции.

Глава Open AI Сэм Олтман. Фото: AP / TASS

Глава Open AI Сэм Олтман. Фото: AP / TASS

Забавные трюки программы вы можете найти в YouTube: например, видеоклип, где Джон Леннон в костюме астронавта NASA поет песню Дэвида Боуи Space Oddity. Для ИИ сегодня не проблема сгенерировать подобное.

Законодатели боятся, что фейки о политике или ИИ, вышедшее из-под контроля в сфере обороны и стратегических технологий, могут стать смертельно опасными для американской демократии и американской безопасности.

И еще одна большая проблема, существующая со времен «луддитского восстания»: машина оставит без работы тысячи и миллионы людей. С ИИ это произойдет на новом этапе и почти во всех технологических и художественных сферах.

Кристина Монтгомери, директор IBM по вопросам конфиденциальности и доверия, заявила на сенатских слушаниях, что идея Илона Маска приостановить развитие новых технологий ИИ до принятия универсальных законов регулирования представляется «серьезной ошибкой, произвольно препятствующей инновациям и ограничивающей преимущества, которые могут предоставить технологии». Когда дело доходит до ИИ, Америке «не нужно выбирать между ответственностью, инновациями и экономической конкурентоспособностью». Мы можем и должны решить все три задачи прямо сейчас, заявила Монтгомери.

Директор IBM по вопросам конфиденциальности и доверия Кристина Монтгомери. Фото: AP / TASS

Директор IBM по вопросам конфиденциальности и доверия Кристина Монтгомери. Фото: AP / TASS

Но легче сказать, чем сделать. Шумиха, созданная вокруг ИИ в последние месяцы, наглядно демонстрирует, что вопросов здесь поставлено гораздо больше, чем имеется ответов на них.

Для нас, пользователей соцсетей и популярных информационных платформ, остается единственное универсальное средство, которое было актуальным и до массового внедрения генерированной ИИ информации — найти эту «лишнюю минуту», не лениться проверять новости из интернета в тех изданиях, которым вы доверяете и которые доказали вам свою надежность.

Ну и еще надеяться на то, что те, кто рассчитывает «цап-царапнуть» у других передовые технологии, как можно дольше не получат к ним доступа.

Технологии XXI века страшны в руках тех, чье сознание находится в XIX.

shareprint
Добавьте в Конструктор подписки, приготовленные Редакцией, или свои любимые источники: сайты, телеграм- и youtube-каналы. Залогиньтесь, чтобы не терять свои подписки на разных устройствах
arrow