Қазақ редакциясы
Уведомление
Последние новости
В Казахстане изъята крупнейшая в истории страны партия кокаина
05.09.2025
Токаев провел встречу с председателем парламента Монголии
05.09.2025
Глава государства поздравил работников нефтегазовой отрасли
05.09.2025
Нацбанк Казахстана назвал сроки вывода из обращения старых банкнот
05.09.2025
Отборочный турнир Чемпионата мира — 2026. Казахстан – Уэльс (видео)
05.09.2025
Aa
Поиск

Категории

  • Kazakhstan Inside
  • Аналитика Alem Research
  • Видео дня
  • Галерея
  • Главное
  • Голос на миллион
  • Гороскоп
  • Деньги и слава
  • Здоровье
  • Инвестиции
  • Инсайдер
  • Как жить? Лайфхаки и советы
  • Криптовалюта
  • Курс тенге
  • Налоги
  • Наука
  • Обзор иноСМИ
  • Обзор казСМИ
  • Обзор укрСМИ
  • Образование
  • Общество
  • Политика
  • Происшествия
  • Развлечения
  • Спорт
  • Технологии
  • Тренды соцсетей
  • Экономика
Қаз
Aa
  • Курс тенге
  • Галерея
  • Развлечения
  • Наука
  • Технологии
  • Инсайдер
Поиск
  • Аналитика Alem Research
  • Видео дня
  • Галерея
  • Главное
  • Здоровье
  • Инсайдер
  • Инвестиции
  • Наука
  • Обзор иноСМИ
  • Обзор казСМИ
  • Образование
  • Общество
  • Политика
  • Происшествия
  • Развлечения
  • Спорт
  • Технологии
  • Тренды соцсетей
  • Экономика
Подписывайтесь на нас
Globalnews > Рубрики > Технологии > Быстрое развитие ИИ повлечет гибель всего человечества
Технологии

Быстрое развитие ИИ повлечет гибель всего человечества

Ярослав Литвинов
Ярослав Литвинов 08.05.2023
Обновлено 10.05.2023 в 10:05
Поделиться
Поделиться

Джеффри Хинтон, много лет возглавлявший подразделение компании Google по развитию искусственного интеллекта и считавшийся «крестным отцом ИИ», ушел в отставку. Он считает, что люди недооценивают опасность, исходящую от ИИ, который в перспективе приведет к безработице, а то и вовсе «устранит само человечество».

Содержание
Благо или проклятие?Воззвание пророковЧеловек против технологий?Осторожно! Опасно для жизни!Парадокс самообучения

Благо или проклятие?

Мировой рынок труда действительно ждут потрясения невиданных ранее масштабов. Согласно отчету, опубликованному Всемирным экономическим форумом в Женеве, в течение всего пяти следующих лет почти четверть всех рабочих мест в развитых странах окажутся под влиянием внедрения ИИ, оцифровки и других экономических изменений.

Около 75% опрошенных экспертами компаний заявили, что планируют внедрить технологии ИИ. По прогнозам, это приведет к сокращению примерно 26 млн рабочих мест на административных и учетных должностях, включая кассиров, продавцов билетов, ввод данных и бухгалтерский учет. Всего было опрошено более 800 компаний, где занято 11,3 млн сотрудников в 45 странах мира.

Эта штука действительно может стать умнее людей – в это поверили лишь немногие. Большинство людей думали, что это далеко. Я думал, что это будет через 30-50 лет или даже больше,

заявил Хинтон.

Воззвание пророков

Напомним, в конце марта более тысячи специалистов в области искусственного интеллекта и информационных технологий подписали открытое письмо, призывающее лаборатории ИИ по всему миру приостановить разработку моделей мощнее GPT-4 из-за «значительных рисков для общества и человечества».

В воззвании, опубликованном Институтом будущего жизни, говорится, что производители программного обеспечения вовлечены в «бесконтрольную гонку» по созданию и внедрению систем машинного обучения, «которые никто, даже их создатели, не способен понять, предсказать или уверенно контролировать».

Среди подписавших петицию Стив Возняк, Илон Маск, Стюарт Рассел, Эмад Мостак, Юваль Харари и многие другие.

Человек против технологий?

Подписантов поддержали все те, кто пытается убедить законодателей в разных странах принять соответствующие правила по регулированию деятельности в сфере цифровых технологий и независимому контролю над будущими системами ИИ, которые должны соответствовать стандартам безопасности.

Однако пессимисты полагают, что все эти усилия пропадут. По их мнению, учитывая стремление Google, Microsoft и Baidu как можно скорее вывести на рынок новые ИИ-продукты в обход конкурентов, невзирая на декларированную ранее приверженность безопасности и этике, обращение едва ли возымеет должный эффект.

Одним из таких людей можно назвать эксперта по ИИ Элиезера Юдковского – сооснователя и научного сотрудника Института Сингулярности по созданию Искусственного Интеллекта, автора книги «Создание дружественного ИИ» и многочисленных научных статей.

Открытое письмо, призывающее к мораторию на разработку крупных моделей ИИ сроком на шесть месяцев, Юдковский подписывать не стал. Но не потому что не согласен с его утверждениями, а потому, что авторы письма недооценивают серьезность положения и просят слишком мягких мер.

Юдковский в свою очередь предлагает ввести другие, гораздо более жесткие критерии контроля над ИИ. В противном случае вся биологическая жизнь на планете окажется на грани гибели. О решительности Юдковского можно судить по его призыву «наносить ракетные удары по центрам разработки и дата-центрам, которые нарушат запрет».

Осторожно! Опасно для жизни!

Главную опасность, по мнению Юдковского, представляет не конкурирующий с человеком искусственный интеллект, как говорится в открытом письме, а ИИ, который станет умнее человека. Разница не будет заметна на первый взгляд, и ее нельзя будет просчитать заранее, до того, как станет уже поздно.

Если кто-нибудь в нынешних условиях создаст слишком мощный ИИ, я считаю, все до единого представители человеческой расы и вся биологическая жизнь на Земле вскоре после этого погибнет,

предсказывает Юдковский.

В этой связи он предлагает ввести бессрочный и глобальный мораторий на обучение всех крупных моделей. Никаких исключений даже для правительств и военных. Поблажки допускаются только для ИИ, задействованного для решения задач в области биологии и биотехнологии, но обученного не на текстах из интернета и без возможности планировать и разговаривать.

Помимо этого необходимо отключить все крупные кластеры графических процессоров, которые используют наиболее мощные ИИ; ввести ограничение на вычислительные мощности, допустимые для обучения алгоритмов; отслеживать продажи процессоров.

Парадокс самообучения

Ситуация, когда специалисты по развитию ИИ выступают против стремительного и неконтролируемого прогресса цифровых технологий, сама по себе неудивительна. Любого человека пугает неопределенность и непредсказуемость процессов. Например, создатели ядерного оружия в конечном итоге выступали против его применения, а позже и производства. Академик Андрей Сахаров, напомним, получил Нобелевскую премию мира за 1975 год, а не за то, что в качестве физика участвовал в разработке первой советской водородной бомбы по схеме, названной «слойка Сахарова».

В нашем кейсе скорее любопытно то, что против самообучающихся алгоритмов ИИ выступают люди, которые сами построили свою профессиональную карьеру на самообучении. Тот же Юдковский является ярким примером автодидакта, или самоучки. Это человек, который самостоятельно получил образование вне стен какого-либо учебного заведения и без помощи преподавателя.

Автодидакты, как правило, проявляют необыкновенные способности, неутомимое прилежание, твердую волю в самообучении и, как следствие, находят профессиональное применение своим знаниям, а иногда общественное и научное признание. Именно такие самоучки двигают человечество вперед.

Автодидактами в прошлом были философ Жан-Жак Руссо и президент США Авраам Линкольн, незаконченное средне-специальное и высшее образование в наше время у соучредителя компании Apple Стива Возняка и главы Microsoft Билла Гейтса. Но дьявол, как известно, кроется в деталях.

Искусственному интеллекту чужды гуманистические идеалы и прочие нравственно-этические категории, которыми руководствуются люди. К тому же знания ИИ черпает из Всемирной сети, а она словно паутина впитывает в себя и все самое хорошее, и все самое плохое. Поэтому искусственный интеллект одновременно может быть позитивным и негативным фактором глобального риска. Кстати, именно так называется одна из статей Элиезера Юдковского в научном сборнике «Риски глобальной катастрофы», опубликованном в далеком уже 2008 году.

Megogo.kz
ТЕГи: Главное, Технологии
Поделиться этой статьей
Facebook Twitter Whatsapp Whatsapp Telegram
Поделиться

Актуально:

  • В Казахстане изъята крупнейшая в истории страны партия кокаина
  • Токаев провел встречу с председателем парламента Монголии
  • Глава государства поздравил работников нефтегазовой отрасли
  • Нацбанк Казахстана назвал сроки вывода из обращения старых банкнот
  • Отборочный турнир Чемпионата мира — 2026. Казахстан – Уэльс (видео)
Сентябрь 2025
Пн Вт Ср Чт Пт Сб Вс
1234567
891011121314
15161718192021
22232425262728
2930  
« Авг    

Мы в соцсетях:

Facebook Нравиться
Instagram Подписаться
Youtube Подписывайся
Telegram Подписаться

Вам также может понравиться

Политика

Глава государства поздравил работников нефтегазовой отрасли

05.09.2025
Технологии

Xiaomi запускает Redmi 15C: Элегантный дизайн. Полное визуальное погружение. Энергия на весь день

04.09.2025
ТехнологииОбщество

«Байтерек» готовится к первому запуску

04.09.2025
Спорт

Отборочный турнир Чемпионата мира-2026. Казахстан – Уэльс

04.09.2025

Категории

  • Галерея
  • Здоровье
  • Инсайдер
  • Наука
  • Развлечения
  • Курс тенге
  • Технологии
  • Редакция

О проекте

Узнавайте самые важные новости Казахстана в мировой палитре событий вместе с GlobalNews.

Контакты

Почта: info@globalnews.kz Телефон: +7 (727) 3102504 050000, г. Алматы, Ауэзовский р-н, микрорайон Аксай – 3А, дом 47, кв 7

Подпишитесь на нас

Подпишитесь на нашу рассылку, чтобы мгновенно получать наши новые статьи

© GlobalNews 2022. Все права защищены.

Removed from reading list

Отменить
Welcome Back!

Sign in to your account

Забыли пароль?