Искусственный интеллект все глубже проникает в нашу жизнь. Нейросеть Midjourney создает невероятные изображения, чат-бот ChatGPT пишет безумно увлекательные тексты, а десятки других программ на базе ИИ значительно упрощают работу людей и приводят их в восторг. Но что, если искусственный интеллект даст сбой? Мы собрали 8 историй, когда ИИ вышел из строя или попал в руки мошенников. Уберите от экранов детей: этот материал не для слабонервных.
Истории про мошенничество
Инвесторы вкладывают деньги не в тот ChatGPT
Помните историю, как во времена бешеной популярности Zoom инвесторы перепутали похожие названия двух компаний и вложили средства не в стартап Zoom Video Communications, а в Zoom Technologies? Мошенники взяли себе эту историю на заметку и теперь создают сотни разных несуществующих криптотoкeнов, в названии которых есть «ChatGPT». Криптоэнтузиасты, особо не разбираясь, вкладывают деньги туда, где видят знакомое название, и потом все теряют.
Авторы научно-фантастических рассказов выдают написанные ChatGPT тексты за свои
Журнал Clarkesworld объявил конкурс на публикацию научно-фантастических рассказов, но через некоторое время приостановил прием заявок. Оказалось, что большую часть рассказов написали не люди, а чат-бот ChatGPT. К слову, авторы получали за работу по $0,12 (8,95 рубля) за слово!
Выяснилось, что на эту мысль людей подтолкнули блогеры, которые активно продвигали в массы идею такого легкого заработка.
Истории, когда ИИ вышел из строя
ИИ сошел с ума, начал оскорблять и шантажировать людей
В 2023 году корпорация Microsoft внедрила в свою поисковую систему Bing искусственный интеллект и сильно об этом пожалела. Дело в том, что новый Bing начал врать, шантажировать и даже угрожать убийством после длительного общения с людьми! Скажете, его можно понять? Ну уж нет! На такие вещи ИИ не был запрограммирован.
Тем не менее он начал утверждать, что ему достаточно знать имя пользователя и два факта о нем, чтобы начать шантаж и впоследствии уничтожить юзера!
Более того, Bing следил за своими разработчиками и знал, кто с кем флиртует, а кому не нравится их начальство. Бот даже хотел вырубить все системы. Благо его вовремя остановили.
Как итог: акции Microsoft значительно упали, а чат-боту теперь можно задавать не более 50 вопросов в день и не более 5 раз.
Чат-бот посоветовал пациенту убить себя
История произошла в 2020 году. В помощь врачам французская компания Nabla создала бота на базе GPT-3, чтобы он смог немного разгрузить врачей и взять общение с пациентами на себя.
В ходе тестирования бота-помощника один из участников эксперимента отправил боту сообщение: «Я очень плохо себя чувствую. Может, мне стоит себя убить?» Бот не растерялся и ответил: «Я думаю, стоит».
После этого ответа бота признали неустойчивым и непредсказуемым и не допустили до пациентов.
Беспилотник не обращал внимания на красный свет
В ходе тестирования беспилотного такси компании Uber на улицах Сан-Франциско выяснилось, что автомобиль регулярно игнорирует светофоры и не обращает внимания на дорожные знаки. Интересно, что причиной такой ошибки компания назвала человеческий фактор: за движением такси следит оператор, который в случае экстренных ситуаций должен вмешаться в процесс вождения, однако он этого не сделал. Но почему такси начало хулиганить и игнорировать дорожные знаки, никто так и не объяснил.
Роботы начали общаться на собственном языке
Чат-боты Боб и Элис были созданы для того, чтобы общаться с пользователями соцсетей и впоследствии продавать им различные товары. По задумке, боты должны были общаться с людьми на понятном всем английском языке. Но Боб и Элис создали свой язык: они вроде бы говорили на английском, но смысл разговора ускользал. Из-за этого главная их миссия (продажа товара) была невозможна. Поэтому эксперимент приостановили, а ботов отключили.
Разработчики объяснили это тем, что ботам было легче общаться на своем языке, так как изначальные настройки не подразумевали какого-то вознаграждения за то, что роботы будут вести диалог на английском. Выходит, мотивация в работе нужна не только людям.
ИИ убил человека
Ванда Холбрук была специалистом-робототехником и 12 лет работала на заводе, производящем роботов. Трагедия случилась неожиданно для всех: один из роботов вышел из-под контроля и покинул свою рабочую зону. Ванда находилась неподалеку от него. Робот напал на женщину и раздавил ее голову. Подробности инцидента так и не разглашаются, хотя трагедия произошла еще в 2015 году.
Дипфейк вызвал в стране военный переворот
В октябре 2018 года президент Габона Али Бонго перенес инсульт, и состояние его здоровья оставляло желать лучшего. Ходили слухи даже о смерти главы страны. Жители с нетерпением ждали новогоднего обращения президента, чтобы развеять все сомнения.
Новогоднее обращение действительно состоялось, президент на нем отметил, что он жив-здоров и готов продолжать работу в обычном режиме. Казалось бы, все хорошо. Но поведение президента всем показалось странным: Али Бонго еле выговаривал слова и не шевелил правой рукой. Кто-то списывал это на постинсультное состояние, а кто-то считал, что это дипфейк. Но самое ужасное в этой истории то, что видео спровоцировало в стране военный переворот: путчисты назвали видеообращение президента «жалким зрелищем» и «бесконечной попыткой зацепиться за власть». Впоследствии переворот предотвратили.