В начале февраля в центре всеобщего внимания оказалась нейросеть ChatGPT.
Дело в том, что российский студент защитил диплом, написанный искусственным интеллектом, и заявил об этом в публичном пространстве. На молодого человека пожаловались в Министерство образования и комитет по этике его альма-матер, члены которого пообещали забрать диплом, если работу посчитают неоригинальной.
В итоге, комиссия не стала аннулировать результат работы, посчитав «некритичной» нетрадиционную организацию написания и защиты, потому что она показала 82% уникальности.
К слову отметить, что суммарно студент на написание научной работы потратил меньше суток – 23 часа.
ИИ в защиту ИИ
Похожий забавный случай произошел параллельно в США. Парламентарий от Демократической партии Джейк Окинклосс обратился к коллегам с выступлением, созданным чат-ботом ChatGPT. Таким образом, член Палаты представителей от Массачусетса стал первым конгрессменом, который произнес перед американскими законодателями речь, написанную искусственным интеллектом.
Примечательно, что выступление как раз было в поддержку законопроекта о создании совместного исследовательского центра ИИ США и Израиля.
Задача, отправленная Окинлоссом в ChatGPT, звучала так: «Вы Джейк Окинклосс, член Конгресса. Напишите 100 слов, чтобы произнести их в зале Палаты представителей. Тема: важность закона о Центре искусственного интеллекта США и Израиля, который конгрессмен внесет повторно».
Чат-бот описал преимущества закона: «Это важный шаг вперед в эпоху, когда искусственный интеллект и его применение занимают центральное место в публичном дискурсе. Мы должны сотрудничать с международными партнерами, такими как правительство Израиля, чтобы гарантировать, что Соединенные Штаты сохранят лидирующую роль в исследованиях и разработках ИИ и ответственно изучат многочисленные возможности, которые предоставляют развивающиеся технологии. Закон о Центре искусственного интеллекта США и Израиля позволит нам использовать опыт и ресурсы друг друга для изучения и разработки передовых достижений в области искусственного интеллекта».
Как отмечает американский веб-сайт о компьютерной технике, гаджетах и стиле жизни The Verge, речь оказалась «скучной и безобидной, чего и следовало ожидать от политической речи, отфильтрованной через систему ИИ».
В действительности же текстовые инструменты ИИ способны генерировать необычные и творческие результаты, но это требует иных подсказок и не тривиальных тем и заданий. К примеру, на Twitch уже несколько недель идет сериал, который полностью сгенерирован нейросетями ChatGPT и DALL-E. Его персонажи обсуждают синтезированными голосами «вечные темы» веганства, кофе и доставку Amazon, находясь в нью-йоркской квартире.
Обратная сторона медали
Напомним, что ChatGPT – это программа, которая создает тексты по запросам пользователей. Большая языковая модель, основанная на нейросетях, обучается, поглощая колоссальные объемы текстовой информации, созданной людьми. Чат-бот разработала калифорнийская компания OpenAI, а релиз состоялся совсем недавно – 30 ноября прошлого года. Сейчас инструмент доступен для пользователей почти всех стран мира.
Между тем, за прошедшие полтора месяца с момента своего появления ChatGPT не раз вызывал дискуссии об этичности его использования, поскольку тексты, сгенерированные нейросетью, бывает сложно отличить от написанных человеком.
Так, бот уже научился генерировать правдоподобные научные статьи. В итоге научные журналы даже вынуждены менять редакционную политику, запрещая указывать популярный чат-бот ChatGPT в качестве соавтора статей. О таких изменениях, в частности, объявили влиятельные издания Science и Nature. Впрочем, некоторые журналы разрешат в будущем использовать ChatGPT при подготовке текстов, если авторы не будут скрывать информацию об этом.
Данное обстоятельство в целом подтверждает, насколько стремительно и масштабно различные нейросети внедряются во все сферы жизнедеятельности человека. Иногда это только во благо, поскольку может помочь в быту и способствовать серьезным прорывам в некоторых областях.
Вместе с тем, нужно осторожно использовать появляющиеся инновации. Например, нейросети могут выдавать ложную информацию за факт, что чревато самыми серьезными последствиями для человека, общества и государства.