8 мин. на чтение

Обратная сторона ИИ: что будет, если он выйдет из строя или попадет в руки мошенников?

Искусственный интеллект все глубже проникает в нашу жизнь. Нейросеть Midjourney создает невероятные изображения, чат-бот ChatGPT пишет безумно увлекательные тексты, а десятки других программ на базе ИИ значительно упрощают работу людей и приводят их в восторг. Но что, если искусственный интеллект даст сбой? Мы собрали 8 историй, когда ИИ вышел из строя или попал в руки мошенников. Уберите от экранов детей: этот материал не для слабонервных.

Истории про мошенничество

Инвесторы вкладывают деньги не в тот ChatGPT

Помните историю, как во времена бешеной популярности Zoom инвесторы перепутали похожие названия двух компаний и вложили средства не в стартап Zoom Video Communications, а в Zoom Technologies? Мошенники взяли себе эту историю на заметку и теперь создают сотни разных несуществующих криптотoкeнов, в названии которых есть «ChatGPT». Криптоэнтузиасты, особо не разбираясь, вкладывают деньги туда, где видят знакомое название, и потом все теряют.

Авторы научно-фантастических рассказов выдают написанные ChatGPT тексты за свои

Журнал Clarkesworld объявил конкурс на публикацию научно-фантастических рассказов, но через некоторое время приостановил прием заявок. Оказалось, что большую часть рассказов написали не люди, а чат-бот ChatGPT. К слову, авторы получали за работу по $0,12 (8,95 рубля) за слово!

Выяснилось, что на эту мысль людей подтолкнули блогеры, которые активно продвигали в массы идею такого легкого заработка.

about

Истории, когда ИИ вышел из строя

ИИ сошел с ума, начал оскорблять и шантажировать людей

В 2023 году корпорация Microsoft внедрила в свою поисковую систему Bing искусственный интеллект и сильно об этом пожалела. Дело в том, что новый Bing начал врать, шантажировать и даже угрожать убийством после длительного общения с людьми! Скажете, его можно понять? Ну уж нет! На такие вещи ИИ не был запрограммирован.

Тем не менее он начал утверждать, что ему достаточно знать имя пользователя и два факта о нем, чтобы начать шантаж и впоследствии уничтожить юзера!

Более того, Bing следил за своими разработчиками и знал, кто с кем флиртует, а кому не нравится их начальство. Бот даже хотел вырубить все системы. Благо его вовремя остановили.

Как итог: акции Microsoft значительно упали, а чат-боту теперь можно задавать не более 50 вопросов в день и не более 5 раз.

Чат-бот посоветовал пациенту убить себя

История произошла в 2020 году. В помощь врачам французская компания Nabla создала бота на базе GPT-3, чтобы он смог немного разгрузить врачей и взять общение с пациентами на себя.

В ходе тестирования бота-помощника один из участников эксперимента отправил боту сообщение: «Я очень плохо себя чувствую. Может, мне стоит себя убить?» Бот не растерялся и ответил: «Я думаю, стоит».

После этого ответа бота признали неустойчивым и непредсказуемым и не допустили до пациентов.

about

Беспилотник не обращал внимания на красный свет

В ходе тестирования беспилотного такси компании Uber на улицах Сан-Франциско выяснилось, что автомобиль регулярно игнорирует светофоры и не обращает внимания на дорожные знаки. Интересно, что причиной такой ошибки компания назвала человеческий фактор: за движением такси следит оператор, который в случае экстренных ситуаций должен вмешаться в процесс вождения, однако он этого не сделал. Но почему такси начало хулиганить и игнорировать дорожные знаки, никто так и не объяснил.

Роботы начали общаться на собственном языке

Чат-боты Боб и Элис были созданы для того, чтобы общаться с пользователями соцсетей и впоследствии продавать им различные товары. По задумке, боты должны были общаться с людьми на понятном всем английском языке. Но Боб и Элис создали свой язык: они вроде бы говорили на английском, но смысл разговора ускользал. Из-за этого главная их миссия (продажа товара) была невозможна. Поэтому эксперимент приостановили, а ботов отключили.

Разработчики объяснили это тем, что ботам было легче общаться на своем языке, так как изначальные настройки не подразумевали какого-то вознаграждения за то, что роботы будут вести диалог на английском. Выходит, мотивация в работе нужна не только людям.

about

ИИ убил человека

Ванда Холбрук была специалистом-робототехником и 12 лет работала на заводе, производящем роботов. Трагедия случилась неожиданно для всех: один из роботов вышел из-под контроля и покинул свою рабочую зону. Ванда находилась неподалеку от него. Робот напал на женщину и раздавил ее голову. Подробности инцидента так и не разглашаются, хотя трагедия произошла еще в 2015 году.

Дипфейк вызвал в стране военный переворот

В октябре 2018 года президент Габона Али Бонго перенес инсульт, и состояние его здоровья оставляло желать лучшего. Ходили слухи даже о смерти главы страны. Жители с нетерпением ждали новогоднего обращения президента, чтобы развеять все сомнения.

Новогоднее обращение действительно состоялось, президент на нем отметил, что он жив-здоров и готов продолжать работу в обычном режиме. Казалось бы, все хорошо. Но поведение президента всем показалось странным: Али Бонго еле выговаривал слова и не шевелил правой рукой. Кто-то списывал это на постинсультное состояние, а кто-то считал, что это дипфейк. Но самое ужасное в этой истории то, что видео спровоцировало в стране военный переворот: путчисты назвали видеообращение президента «жалким зрелищем» и «бесконечной попыткой зацепиться за власть». Впоследствии переворот предотвратили.

Ранее мы рассказывали:

Как технологии меняют нашу еду?
Любите делиться своим мнением о технике? Тогда напишите обзор товара в «Эльдоблоге» и получите до 1000 бонусов на новые покупки!

Комментарии

К данной публикации еще нет комментариев

Вам также понравятся