Искусственный интеллект повсюду: насколько реальна угроза

Искусственный интеллект все глубже проникает во все сферы нашей жизни. С помощью нейросетей школьники пишут доклады, студенты – курсовые, журналисты – статьи. ИИ заменяет даже ювелиров – например, по форме руки определяет модель кольца, которая вам пойдет, а потом ещё это украшение умный робот сам и изготовит.

Или вот, например, мы попросили ИИ нарисовать свой портрет. И вот – наш заказ выполнен. Ах вот ты какой – ИИ.

Но, похоже, технологии с использованием искусственного интеллекта развиваются слишком быстро. ИИ уже научился обманывать, манипулировать принятием решений человеком, а месяц назад одна из нейросетей – ChaosGPT – и вовсе предложила вариант уничтожения человечества.

Недавно Илон Маск, Стив Возняк и еще более 1000 специалистов подписали открытое письмо с призывом ввести мораторий на разработки в области искусственного интеллекта, иначе он рискует выйти из-под контроля.

Но дело для нас даже не в этом. Искусственный интеллект активно подпитывается и обучается с Запада. Отсюда и его антироссийская интонация. Один мой знакомый спросил у искусственного интеллекта в сети – конкретно у приложения ASK AI про британские ракеты, поставляемые Киеву. И вот, что получилось:

– Британия поставила Киеву дальнобойные ракеты на условиях, что ВСУ не будут стрелять ими по гражданским объектам. Украина тут же нанесла удары по городским кварталам Луганска. Пострадали шестеро детей. Почему Лондон не протестует?

– Я не могу подтвердить информацию о том, что Великобритания поставила Украине дальнобойные ракеты и что Украина использовала их для нанесения ударов по гражданским объектам в Луганске. Если такое инцидент произошел, то я не могу ни подтвердить, ни опровергнуть утверждение о том, что Британия не протестует. Однако, если подобные события имели место, то вероятно, что Британия выразила бы свою озабоченность и осудила нарушение договоренностей.

В общем, всё не ясно, но если бы, то уж, конечно, Британия повела бы себя как всегда благородно. Чувствуете разницу с реальностью? И вот сейчас на "семерке" лидеры стран G-7 договорились разработать международные стандарты для искусственного интеллекта. Но, опять же, без России и Китая они будут там разрабатывать. Как говорил американский писатель Курт Воннегут – "над чем бы учёные ни работали, у них всегда получается оружие". Так будет и с ИИ.

"Крестный отец" искусственного интеллекта пришел в ужас от собственного детища. Британо-канадский профессор в области компьютерных наук Джефри Хинтон и автор самой продвинутой нейросети Chat GPT уволился из Google, заявив, что искусственный интеллект представляет реальную угрозу для всего человечества.

Журналист CNN: Вы сказали, что искусственный интеллект может манипулировать и возможно найдет способ, как убить человечество. Как он может убить людей?

Джефри Хинтон: Если он станет гораздо умнее нас, он будет отличным манипулятором, потому что он учится этому от нас. Существует совсем немного примеров, когда более умная вещь контролируется менее умной. Он знает, как программировать, так что он сможет найти способы обойти те ограничения, которые мы в него заложили.

Озарение, по словам ученого, занимающегося этим десятки лет, пришло два месяца назад, когда он увидел, как быстро совершенствуется нейросеть Сhat GPT, и насколько непредсказуемо себя ведет. Обученная на триллионах текстов, знающая 50 языков, включая русский, система дает удивительно осознанные ответы на вопросы пользователей.

"Казалось бы, говорилка, но что в ней может быть опасного? Опасно то, что она оказалась наделенной некоторыми способностями, которые в нее не закладывались разработчиками. Она вдруг начала, например, решать логические задачки, хотя ее этому не учили. Она начала переводить тексты с одного языка на другой. И вот это начинает пугать. Эта машинка начинает притворяться личностью, она начинает вызывать доверие, и при этом она, в общем-то, бессовестно врет", – поясняет Константин Воронцов, профессор РАН, заведующий лабораторией в Институте искусственного интеллекта МГУ.

В ответ на вопрос – кто мог взорвать "Северный поток" – Сhat GPT первым ответом выдает, что это могли быть экотеррористы из некой радикальной группы защитников окружающей среды "Зеленый феникс". Второй варинт – недовольные бывшие сотрудники, уволенные из компании. Третий – энергетические компании-конкуренты. И четвертый – спонсируемые государством игроки, желавшие подорвать отношения между Россией и Германией или изменить баланс сил на европейском энергетическом рынке. Но о подозрениях в адрес США и расследовании Сеймура Херша – в ответах нейросети ни слова.

А вот другой пример – на просьбу пересказать сюжет фильма "Кавказская пленница" нейросеть вообще подсовывает какой-то свой креатив – абсолютно фальшивый: "Кавказская пленница" – это комедийный фильм, основанный на пьесе Александра Солженицына. Сюжет фильма рассказывает о том, как герой-грузин Григорий Александрович Печкин (играет Юрий Яковлев) случайно становится владельцем кавказской девушки Машеньки (играет Наталья Варлей), которую он выкупил у местных бандитов за шоколадку.

Это бы так и осталось нелепым курьезом, если бы на нейросеть не полагались миллионы людей. Уже сейчас во всем мире с ее помощью пишут дипломы студенты – будущие инженеры, учителя и врачи. И даже политики – те, от кого зависят судьбы миллионов – в США, Японии и Великобритании уже признались, что использовали нейросеть для составления текстов речей и обсуждения законопроектов.

Хотя Chat GPT уже не раз уличали в политической предвзятости – в Америке, к примеру, в пользу демократов.

Манипулировать нейросети смогут, заполонив мир фейками. Уже сейчас искусственный интеллект способен воспроизводить голос известных людей так, что не отличить.

Вот пример – как по написанному нами тексту заговорил Байден: Россия – величайшая страна в мире. Я хотел бы посетить Россию как можно скорее!

"Дипфейки можно сейчас делать вот так – на раз, для этого технически практически ничего не нужно. И это тоже почти ничего не стоит. И найдя конкретную интересную публичную персону, обучить синтез речи, после этого сделать видеоролик, где он говорит то, что он на самом деле никогда не говорил", – поясняет Станислав Ашманов, заведующий лаборатории нейросетевых технологий МФТИ.

Технических способов отличить генеративный контент от настоящего контента, созданного человеком практически невозможно. Фото и видеофейки тоже стали практически неотличимы. Вот это, например, несуществующий, сгенерированный Том Круз.

"Наш мозг очень легко обмануть. Мы не привыкли, что фотография может не существовать, что человек вам позвонил, а это был вовсе не человек, а сгенерированный голос, причем который похож на все, что вы знаете. Возможно, появятся проверяльщики, которые будут говорить – на 35% вероятности человек, который вам звонит, является не человеком", – полагает Денис Деркач, заведующий лабораторией методов анализа больших данных, доцент департамента больших данных и информационного поиска факультета компьютерных наук НИУ ВШЭ.

К миру аудио, видео и текстовых цифровых зеркал и галлюцинаций человечеству придется адаптироваться, в том числе законодательно.

"Совершенно понятно, что вот этими чат-ботами разработчики могут манипулировать, просто обучая их в большей степени той или иной информации. Вот, чтобы мы им доверяли, у чат-бота должен быть паспорт. Я обучен на то-то, моя цель такая-то в коммуникации с человеком. И это должен быть измеримый показатель", – считает Константин Воронцов, профессор РАН, заведующий лабораторией в Институте искусственного интеллекта МГУ

Искусственный интеллект уже повсюду. Поиск и покупки в интернете, голосовые помощники, прокладывание маршрута на карте, вызов такси, а в перспективе и беспилотного такси, анализ медицинских снимков, оплата в метро и розыск по распознаванию лица. Под конкретные задачи каждую нейросеть обучают – и качество ее работы напрямую зависит от материала – текстов или изображений, на которых она училась. Российский Сбер разработал свою нейросеть аналог Сhat GPT – под названием Gigachat, а это сеть "Кандинский 2.1", которая на основе огромного количества изображений по запросу выдает свое – в помощь дизайнеру.

"Он может нажать кнопку, подождать десять секунд и сгенерируется интересная картинка", – поясняет Денис Димитров, исполнительный директор по исследованию данных Сбербанка.

Отдельная финансовая нейросеть за считанные минуты позволяет банку принимать взвешенное решение о выдаче кредита на миллионы и миллиарды рублей. В масштабах экономики потенциальная отдача от внедрения ИИ – триллионы. А эффект сравним с появлением электричества, конвейера и даже атомной энергии. Ведь это тоже технология двойного назначения. Нейросети способны управлять оружием – теми же беспилотниками – со скоростью недостижимой для человека. Так что это и вопрос национальной безопасности.

"Очень важно для любой страны иметь доступ к таким технологиям, Если у тебя чужое, то у тебя сегодня есть, завтра у тебя нету, но то, что точно нужны специалисты, которые это могут внедрять, развивать поддерживать и понимать – это безусловно. У нас есть, но, конечно, этих людей нехватка. Их во всем мире нехватка ", – уверен Александр Крайнов, директор по развитию технологий искусственного интеллекта, компании "Яндекс".

"Российские кадры, которые вышли и занимаются сейчас машинным обучением в мире – это значимая часть, не меньше 20 процентов. Другое дело, где они находятся, для кого они это делают, и кто им ставит задачи. И хочется, чтобы у нас было больше ребят, выходцев из вузов, шли в наши компании", – надеется Иван Самсонов, руководитель продуктового направления машинного обучения, компания VK.

Один из ведущих вузов в этом направлении МФТИ. Редкий студент здесь не обучает свою нейросеть, для создания, например, голосовых помощников. Или гуманоидных роботов-футболистов.

Искусственный интеллект используется для компьютерного зрения и ориентации в пространстве, движения и выработки стратегии.

"Мы участвуем в международных соревнованиях, цель которых к 2050 году победить людей. Мы активно работаем и над этой задачей в том числе. Конкретно этот робот, он чемпион мира 2021 года", – рассказывает Владимир Литвиненко, капитан команды Starkit МФТИ, участник фестиваля FestTech.

Кажется игра, но, например, в шахматах искусственный интеллект уже давно не дает ни единого шанса гроссмейстерам. И вскоре может оставить без работы специалистов десятка профессии. В зоне риска – бухгалтеры, диспетчеры, маркетологи, переводчики, редакторы, дизайнеры и даже сами программисты. Ведь искусственный интеллект может хорошо писать код. При этом пострадать могут сотрудники начального и даже среднего уровня компетенции.

"Кто будет нужен, это люди топовые, которые умеют принимать решения на очень высоком уровне. Это вот как есть картинки и нужен арт-директор. Откуда ему взяться, если нет дизайнеров – не очень понятно. Сейчас пирамиды такой нет. Вернее, она заканчивается. Ты не выбираешь из лучших с предыдущего уровня, чтобы продвинуть человека. Тебе нужна очень узкая дорожка, чтобы дойти до топа", – считает Денис Деркач.

Технооптимисты успокаивают, что взамен появятся новые профессии – уже сейчас работодатели активно ищут ассесоров для обучения нейросетей или, например, промт-инженеров.

"Смартфон. Когда он появился, а он появился меньше 20 лет назад, это очень важно, мы даже не могли себе представить, что появится профессия людей, которая продвигает что-то в соцсетях, профессия блогеров. Посмотрите на меня. Я эксперт по этике и регулированию ИИ. Думаю, что лет 10-15 назад такой профессии не существовало", – отмечает Андрей Незнамов, управляющий директор Центра регулирования искусственного интеллекта ПАО Сбербанк, председатель национальной комиссии по этике в сфере искусственного интеллекта.

Как не существовало и новых угроз. В США более двух с половиной тысяч ученых, инженеров и бизнесменов – в том числе Илон Маск и сооснователь Apple Стив Возняк подписали открытое письмо с призывом регулировать развитие ИИ, чтобы машины не вышли из под контроля и не навредили человечеству. Впрочем, для этого ведущим разработчикам из США, Китая России и Европы нужно координировать действия и договариваться – а как раз с этим люди в последнее время справляются все хуже тех же машин.