Categories: Технологии

Нейросеть справляется со всеми вопросами

В начале февраля в центре всеобщего внимания оказалась нейросеть ChatGPT.

Дело в том, что российский студент защитил диплом, написанный искусственным интеллектом, и заявил об этом в публичном пространстве. На молодого человека пожаловались в Министерство образования и комитет по этике его альма-матер, члены которого пообещали забрать диплом, если работу посчитают неоригинальной.

В итоге, комиссия не стала аннулировать результат работы, посчитав «некритичной» нетрадиционную организацию написания и защиты, потому что она показала 82% уникальности.

К слову отметить, что суммарно студент на написание научной работы потратил меньше суток – 23 часа.

ИИ в защиту ИИ

Похожий забавный случай произошел параллельно в США. Парламентарий от Демократической партии Джейк Окинклосс обратился к коллегам с выступлением, созданным чат-ботом ChatGPT. Таким образом, член Палаты представителей от Массачусетса стал первым конгрессменом, который произнес перед американскими законодателями речь, написанную искусственным интеллектом.

Примечательно, что выступление как раз было в поддержку законопроекта о создании совместного исследовательского центра ИИ США и Израиля.

Задача, отправленная Окинлоссом в ChatGPT, звучала так: «Вы Джейк Окинклосс, член Конгресса. Напишите 100 слов, чтобы произнести их в зале Палаты представителей. Тема: важность закона о Центре искусственного интеллекта США и Израиля, который конгрессмен внесет повторно».

Чат-бот описал преимущества закона: «Это важный шаг вперед в эпоху, когда искусственный интеллект и его применение занимают центральное место в публичном дискурсе. Мы должны сотрудничать с международными партнерами, такими как правительство Израиля, чтобы гарантировать, что Соединенные Штаты сохранят лидирующую роль в исследованиях и разработках ИИ и ответственно изучат многочисленные возможности, которые предоставляют развивающиеся технологии. Закон о Центре искусственного интеллекта США и Израиля позволит нам использовать опыт и ресурсы друг друга для изучения и разработки передовых достижений в области искусственного интеллекта».

Как отмечает американский веб-сайт о компьютерной технике, гаджетах и стиле жизни The Verge, речь оказалась «скучной и безобидной, чего и следовало ожидать от политической речи, отфильтрованной через систему ИИ».

В действительности же текстовые инструменты ИИ способны генерировать необычные и творческие результаты, но это требует иных подсказок и не тривиальных тем и заданий. К примеру, на Twitch уже несколько недель идет сериал, который полностью сгенерирован нейросетями ChatGPT и DALL-E. Его персонажи обсуждают синтезированными голосами «вечные темы» веганства, кофе и доставку Amazon, находясь в нью-йоркской квартире.

Обратная сторона медали

Напомним, что ChatGPT – это программа, которая создает тексты по запросам пользователей. Большая языковая модель, основанная на нейросетях, обучается, поглощая колоссальные объемы текстовой информации, созданной людьми. Чат-бот разработала калифорнийская компания OpenAI, а релиз состоялся совсем недавно – 30 ноября прошлого года. Сейчас инструмент доступен для пользователей почти всех стран мира.

Между тем, за прошедшие полтора месяца с момента своего появления ChatGPT не раз вызывал дискуссии об этичности его использования, поскольку тексты, сгенерированные нейросетью, бывает сложно отличить от написанных человеком.

Так, бот уже научился генерировать правдоподобные научные статьи. В итоге научные журналы даже вынуждены менять редакционную политику, запрещая указывать популярный чат-бот ChatGPT в качестве соавтора статей. О таких изменениях, в частности, объявили влиятельные издания Science и Nature. Впрочем, некоторые журналы разрешат в будущем использовать ChatGPT при подготовке текстов, если авторы не будут скрывать информацию об этом.

Данное обстоятельство в целом подтверждает, насколько стремительно и масштабно различные нейросети внедряются во все сферы жизнедеятельности человека. Иногда это только во благо, поскольку может помочь в быту и способствовать серьезным прорывам в некоторых областях.

Вместе с тем, нужно осторожно использовать появляющиеся инновации. Например, нейросети могут выдавать ложную информацию за факт, что чревато самыми серьезными последствиями для человека, общества и государства.

Ярослав Литвинов

Recent Posts

Токаев: Ученые всегда должны быть в фарватере созидания

Глава государства выступил на заседании Национального совета по науке и технологиям, сообщает прес-служба Акорды. В…

3 дня ago

Джеки Чан снимет фильм в Алматы

Известный китайский и голливудский актер Джеки Чан определился с локациями в Алматы для своего будущего…

3 дня ago

Более трех миллионов казахстанцев установили запрет на получение займов и кредитов

Свыше 3 миллионов граждан Казахстана воспользовались возможностью установить запрет на получение кредитов и микрозаймов. Об…

3 дня ago

Прокуратура СКО выявила нарушения в сфере госзакупок

Прокуратура Северо-Казахстанской области выявила нарушения законодательства в сфере государственных закупок. Ряд акиматов и подведомственных организаций…

3 дня ago

В Павлодаре прошел совместный рейд полиция и «Жастар Рухы» (видео)

В Павлодаре прошли совместные профилактические мероприятия, организованные сотрудниками полиции и представителями молодежного крыла партии «Жастар…

4 дня ago

В Украине ликвидирован мошеннический call-центр, обманувший казахстанцев на сотни миллионов тенге (видео)

23 сентября в результате совместной спецоперации правоохранительных органов Казахстана и Украины была пресечена деятельность транснациональной…

4 дня ago