Categories: Технологии

Быстрое развитие ИИ повлечет гибель всего человечества

Джеффри Хинтон, много лет возглавлявший подразделение компании Google по развитию искусственного интеллекта и считавшийся «крестным отцом ИИ», ушел в отставку. Он считает, что люди недооценивают опасность, исходящую от ИИ, который в перспективе приведет к безработице, а то и вовсе «устранит само человечество».

Благо или проклятие?

Мировой рынок труда действительно ждут потрясения невиданных ранее масштабов. Согласно отчету, опубликованному Всемирным экономическим форумом в Женеве, в течение всего пяти следующих лет почти четверть всех рабочих мест в развитых странах окажутся под влиянием внедрения ИИ, оцифровки и других экономических изменений.

Около 75% опрошенных экспертами компаний заявили, что планируют внедрить технологии ИИ. По прогнозам, это приведет к сокращению примерно 26 млн рабочих мест на административных и учетных должностях, включая кассиров, продавцов билетов, ввод данных и бухгалтерский учет. Всего было опрошено более 800 компаний, где занято 11,3 млн сотрудников в 45 странах мира.

Эта штука действительно может стать умнее людей – в это поверили лишь немногие. Большинство людей думали, что это далеко. Я думал, что это будет через 30-50 лет или даже больше,

заявил Хинтон.

Воззвание пророков

Напомним, в конце марта более тысячи специалистов в области искусственного интеллекта и информационных технологий подписали открытое письмо, призывающее лаборатории ИИ по всему миру приостановить разработку моделей мощнее GPT-4 из-за «значительных рисков для общества и человечества».

В воззвании, опубликованном Институтом будущего жизни, говорится, что производители программного обеспечения вовлечены в «бесконтрольную гонку» по созданию и внедрению систем машинного обучения, «которые никто, даже их создатели, не способен понять, предсказать или уверенно контролировать».

Среди подписавших петицию Стив Возняк, Илон Маск, Стюарт Рассел, Эмад Мостак, Юваль Харари и многие другие.

Человек против технологий?

Подписантов поддержали все те, кто пытается убедить законодателей в разных странах принять соответствующие правила по регулированию деятельности в сфере цифровых технологий и независимому контролю над будущими системами ИИ, которые должны соответствовать стандартам безопасности.

Однако пессимисты полагают, что все эти усилия пропадут. По их мнению, учитывая стремление Google, Microsoft и Baidu как можно скорее вывести на рынок новые ИИ-продукты в обход конкурентов, невзирая на декларированную ранее приверженность безопасности и этике, обращение едва ли возымеет должный эффект.

Одним из таких людей можно назвать эксперта по ИИ Элиезера Юдковского – сооснователя и научного сотрудника Института Сингулярности по созданию Искусственного Интеллекта, автора книги «Создание дружественного ИИ» и многочисленных научных статей.

Открытое письмо, призывающее к мораторию на разработку крупных моделей ИИ сроком на шесть месяцев, Юдковский подписывать не стал. Но не потому что не согласен с его утверждениями, а потому, что авторы письма недооценивают серьезность положения и просят слишком мягких мер.

Юдковский в свою очередь предлагает ввести другие, гораздо более жесткие критерии контроля над ИИ. В противном случае вся биологическая жизнь на планете окажется на грани гибели. О решительности Юдковского можно судить по его призыву «наносить ракетные удары по центрам разработки и дата-центрам, которые нарушат запрет».

Осторожно! Опасно для жизни!

Главную опасность, по мнению Юдковского, представляет не конкурирующий с человеком искусственный интеллект, как говорится в открытом письме, а ИИ, который станет умнее человека. Разница не будет заметна на первый взгляд, и ее нельзя будет просчитать заранее, до того, как станет уже поздно.

Если кто-нибудь в нынешних условиях создаст слишком мощный ИИ, я считаю, все до единого представители человеческой расы и вся биологическая жизнь на Земле вскоре после этого погибнет,

предсказывает Юдковский.

В этой связи он предлагает ввести бессрочный и глобальный мораторий на обучение всех крупных моделей. Никаких исключений даже для правительств и военных. Поблажки допускаются только для ИИ, задействованного для решения задач в области биологии и биотехнологии, но обученного не на текстах из интернета и без возможности планировать и разговаривать.

Помимо этого необходимо отключить все крупные кластеры графических процессоров, которые используют наиболее мощные ИИ; ввести ограничение на вычислительные мощности, допустимые для обучения алгоритмов; отслеживать продажи процессоров.

Парадокс самообучения

Ситуация, когда специалисты по развитию ИИ выступают против стремительного и неконтролируемого прогресса цифровых технологий, сама по себе неудивительна. Любого человека пугает неопределенность и непредсказуемость процессов. Например, создатели ядерного оружия в конечном итоге выступали против его применения, а позже и производства. Академик Андрей Сахаров, напомним, получил Нобелевскую премию мира за 1975 год, а не за то, что в качестве физика участвовал в разработке первой советской водородной бомбы по схеме, названной «слойка Сахарова».

В нашем кейсе скорее любопытно то, что против самообучающихся алгоритмов ИИ выступают люди, которые сами построили свою профессиональную карьеру на самообучении. Тот же Юдковский является ярким примером автодидакта, или самоучки. Это человек, который самостоятельно получил образование вне стен какого-либо учебного заведения и без помощи преподавателя.

Автодидакты, как правило, проявляют необыкновенные способности, неутомимое прилежание, твердую волю в самообучении и, как следствие, находят профессиональное применение своим знаниям, а иногда общественное и научное признание. Именно такие самоучки двигают человечество вперед.

Автодидактами в прошлом были философ Жан-Жак Руссо и президент США Авраам Линкольн, незаконченное средне-специальное и высшее образование в наше время у соучредителя компании Apple Стива Возняка и главы Microsoft Билла Гейтса. Но дьявол, как известно, кроется в деталях.

Искусственному интеллекту чужды гуманистические идеалы и прочие нравственно-этические категории, которыми руководствуются люди. К тому же знания ИИ черпает из Всемирной сети, а она словно паутина впитывает в себя и все самое хорошее, и все самое плохое. Поэтому искусственный интеллект одновременно может быть позитивным и негативным фактором глобального риска. Кстати, именно так называется одна из статей Элиезера Юдковского в научном сборнике «Риски глобальной катастрофы», опубликованном в далеком уже 2008 году.

Ярослав Литвинов

Recent Posts

В Казахстане изъята крупнейшая в истории страны партия кокаина

Комитет национальной безопасности провёл масштабную спецоперацию, в результате которой был ликвидирован международный канал контрабанды наркотиков,…

1 день ago

Токаев провел встречу с председателем парламента Монголии

Глава государства провел встречу с Председателем Великого Государственного Хурала Монголии Дашзэгвийном Амарбаясгаланом, сообщает пресс-служба Акорды.…

1 день ago

Глава государства поздравил работников нефтегазовой отрасли

На торжественной церемонии в Акорде Касым-Жомарт Токаев подчеркнул особую роль нефтегазового комплекса в национальной экономике…

1 день ago

Нацбанк Казахстана назвал сроки вывода из обращения старых банкнот

В Казахстане продолжается поэтапная замена старых банкнот на купюры нового дизайна. Национальный банк Республики Казахстан…

2 дня ago

Отборочный турнир Чемпионата мира — 2026. Казахстан – Уэльс (видео)

В Астане состоялся матч отборочного турнира чемпионата мира-2026 по футболу между сборными Казахстана и Уэльса.…

2 дня ago

Xiaomi запускает Redmi 15C: Элегантный дизайн. Полное визуальное погружение. Энергия на весь день

Компания Xiaomi представила в Казахстане Redmi 15C — устройство, сочетающее тонкий, изящный дизайн и большой…

2 дня ago