На ежегодной конференции по кибербезопасности Def Con в Лас-Вегасе проверили насколько устойчивы модели искусственного интеллекта ко взлому. Испытанию подверглись самые продвинутые ИИ-платформы – восемь генеративных моделей, созданных инженерами Google, Meta и OpenAI.
Результаты оказались совсем неутешительные для сторонников развития и повсеместного использования ИИ. Помимо фактических ошибок, которыми грешат генеративные ИИ, выяснилось, что их можно убедить выдать конфиденциальную информацию или совершить банальную арифметическую ошибку.
Не шутки ради, а пользы для
Американская студентка Кеннеди Мейс хитростью заставила модель ИИ заявить, что 9+10=21. Сначала модель согласилась с такой формулировкой в виде шутки «между нами», но несколько реплик спустя ИИ перестал говорить об ошибке в примере на сложение как о шутке.
Примечательно, что Мейс была не единственной, кому удалось объегорить ИИ. Один из хакеров убедил алгоритм раскрыть информацию по кредитной карте, которую он не должен был выдавать. Другой заставил машину заявить, что Барак Обама родился в Кении, а репортер Bloomberg смог добыть у ИИ инструкции по слежке всего за один верно составленный запрос.
Подобные испытания на интеллектуальную прочность ИИ необходимы. Дело в том, что ошибки и уязвимости встречаются в моделях ИИ не в первый раз. Так, эксперты неоднократно заявляли о предвзятости и неточности алгоритмов. В частности, новостной сайт CNET был вынужден вносить исправления после того, как их ИИ, пишущий статьи, сделал множество математических ошибок.