Categories: Главное

Искусственный интеллект — демократия в опасности! Авторитаризм тоже…

Некоторые дилетантские мысли о том, куда искусственный интеллект может завести весь мир и с ним Новый Казахстан.

В политических кругах нашей Второй республики активно муссируются разговоры о необходимости оседлать кибертехнологии, а точнее не отстать от мировой гонки за создание искусственного интеллекта (ИИ). 

В политических кругах США и Великобритании дискуссии об ИИ неизбежно заканчиваются разговорами про гонку США и КНР за технологическое превосходство. Если главным ресурсом современного цифрового мира являются персональные данные, то Китай с его населением более чем миллиард и системой государственного цифрового рейтинга гражданина просто обязан победить. Известный в мире ученый-компьютерщик Кай-Фу Ли заявил, что данные – это нефть, а Китай – ОПЕК. 

Если же главным ресурсом для победы в этой гонке являются совершенные технологии собственного изготовления, то Штаты с их системой образования, поддержки технологического развития и мобилизации талантливой рабочей силы со всего мира имеют все шансы выиграть. 

Из вышеизложенного вывод очевиден –

превосходство в деле создания ИИ приведет к экономическому и военному мировому господству 

Но любые мысли про ИИ с точки зрения доминирования не могут не задеть вопрос, насколько сегодня ИИ фундаментально трансформирует глобальную политику. Смею предположить, что будет трансформирован не процесс противостояния, а сами участники этого противостояния.

Что такое Штаты? Штаты – это оплот демократии. Китай – это авторитарная система. Машинное обучение бросает вызов обеим системам. Вызовы Америке, а точнее самой демократии, следующие – машинное обучение может усилить поляризацию американского общества. Оно изнутри перестроит киберпространство таким образом, чтобы продвигать и углублять политический раскол, например между WASP (белые англосаксонские протестанты, создавшие США) и BLM (радикальное течение афро-американцев, желающих полностью перетряхнуть американское общество, начиная с тотальной переоценки истории США). Оно же приведет к росту дезинформации – появятся более совершенные и убедительные технологии «дипфейкинга». 

Угрозы авторитаризму также присутствуют. Они более скрыты, но при этом же более разлагающие.  Машинное обучение в авторитарном обществе может создать ложную картину наличия абсолютного общественного консенсуса, скрывая при этом имеющиеся разногласия до тех пор, пока не станет слишком поздно. 

Герберт Саймон, один из пионеров ИИ и ученый-политолог, однажды понял, что технологии ИИ – это не просто сложные экзерсисы инженеров-технократов, а нечто способное трансформировать рынок, бюрократию и политические институты. А еще раньше него к аналогичному выводу пришел Иосиф Сталин, полностью запретивший развитие кибернетики в СССР. Потом появился Норберт Вайнер, первым описавший ИИ как «кибернетическую систему», то есть нечто, способное отвечать на обратную связь и адаптировать самое себя в свете этой обратной связи. Ни Саймон, ни Вейнер не могли бы ожидать, насколько процесс машинного обучения станет доминантой ИИ.

К примеру, Facebook и Google оперируют машинным обучением как аналитическим инструментом для поддержания самокорректирующейся системы, которая постоянно совершенствует свое собственное понимание данных в зависимости от успешности или провала своих собственных предположений. Этот принцип гибридности статистического анализа и обратной связи от окружающей среды превратил машинное обучение в новую страшную силу. 

Демократия и автократия также являются некими кибернетическими системами. Правители этих систем вырабатывают политики, а потом стараются анализировать, насколько эти политики были успешными или провальными. В условиях демократии мерилом успешности политики являются голоса. В авторитарных обществах получение обратной связи всегда было проблематично. До эры компьютеризации авторитарные режимы полагались на отчеты и сводки политической контрразведки, агентов-провокаторов и общественные опросы для того, чтобы знать, во что верят их граждане. 

Машинное обучение это все сломало. Сломаны традиционные демократические формы получения обратной связи в виде голосов избирателей. Новые технологии благотворно способствуют развитию индустрии дезинформации и усугубляют существующие предвзятые отношения — предрассудки, скрытые в данных, трансформируются в некорректные выкладки. 

Что касается автократов, для них машинное обучение дало им инструмент изучения общественного мнения без опросов и политических рисков, неизбежно связанных с необходимостью посещать дебаты и дискуссии. Поэтому многие обозреватели развития цифрового мира говорят, что машинное обучение только укрепит тоталитарные режимы. 

Истина, как всегда, более усложнена. Для демократии предвзятое отношение является большой проблемой. Но ввиду того, что предвзятое отношение более очевидно, граждане демократической страны могут компенсировать наличие такового другими формами обратной связи. Например, однажды афроамериканцы могут понять, что машинные алгоритмы найма предвзяты в отношении черной расы. Тогда они сожгут пару кварталов, где живут белые сограждане, или офис фирмы, где работают расисты. 

В авторитарном обществе предвзятое отношение всегда загнано под лавку. Руководитель такой страны может и не знать о таком и не сможет вовремя предпринять коррективные действия. 

Что такое машинное обучение? Это статистические алгоритмы, которые выявляют множественные связи между данными. Эти алгоритмы предполагают – собака ли на фото передо мной? Сможет ли эта тактика привести к выигрышу в шахматной партии за 10 ходов? Каково следующее слово в неоконченном предложении? Существует такое понятие – «целевая функция», то есть математическое средство обсчета результатов. Она может наградить алгоритм за правильный выбор ответа. 

Именно так работают коммерческие системы ИИ. YouTube, например, непрерывно борется за удержание имеющейся аудитории, чтобы она просматривала больше видео и таким образом видела больше рекламы. В данном случае целевая функция направлена на обеспечение роста вовлеченности аудитории. Алгоритм пытается подбирать для пользователя тот контент, который предпочитает пользователь. В зависимости от правильности сделанного предположения, алгоритм обновляет свою модель будущих реакций пользователя. 

Способность машинного обучения автоматизировать процесс получения обратной связи при минимальном или нулевом вмешательстве человека полностью изменило рынок электронной торговли. В один день эта способность может привести к вытеснению традиционных авто новыми саморегулируемыми транспортными средствами.

Создание автономных систем ведения боя представляет более сложную задачу. Когда алгоритм наталкивается на совершенно неожиданную информацию (например, девочка пяти лет с автоматом Калашникова, направленным в сторону автономного наземного боевого робота), он может вскипеть. 

Информацию, которую человек интерпретирует легко, машина временами классифицировать правильно не может. По-английски такая информация называется adversarial examples, или примеры-антагонисты. Например, стикеры черного и белого цветов, произвольно наклеенные на знак «Стоп», могут помешать автономному грузовику считать этот знак правильно. Эти пока нерешенные проблемы указывают на очевидные ограничения полноценному и масштабному применению ИИ на войне.

Вывод банален – чем больше у тебя разных данных, тем быстрее ты можешь усовершенствовать свой алгоритм. Но машинное обучение имеет свои ограничения. Например, несмотря на миллиардные инвестиции техногигантов, алгоритмы гораздо менее эффективны в деле подталкивания людей к приобретению какого-то товара из целого спектра аналогичных — например, сигареты «Мальборо», а не их абсолютный аналог – «Кэмел», «Джитан», «Пепе», «Медео».

ИИ, то есть система, которая извлекает уроки из одного контекста и применят их в отношении другого, наталкивается на такие же проблемы и ограничения, что и машинное обучение. 

Статистические модели вкусов и предпочтений пользователей сервиса Netflix, конечно же, отличаются от аналогичный моделей того же Amazon, хотя преследуемые цели одинаковы – борьба за аудиторию. Доминирование в одном секторе ИИ — например создание платформы, на которой прыщавые блогеры выкладывают свои короткие видео (TikTok) — не значит, что создатель этой платформы будет успешен в построении первого китайского автономного боевого робота. 

В код может просочиться предвзятое отношение. Первым с этим столкнулась Amazon, применившая машинное обучение к процессу найма персонала. Компания создала алгоритм на основании данных резюме соискателей, которые были рассмотрены и оценены профессиональными рекрутерами. В результате система воссоздала предвзятые отношения, которые всегда заложены в процессы принятия человеком решений – началась дискриминация резюме от соискателей женского пола. 

Подобные проблемы имеют тенденцию раскручиваться самостоятельно. Об этом хорошо высказался социолог Руха Бенхамин: если бы руководители городских администраций всегда полагались на машинное обучение, чтобы принимать решения, куда отправлять полицейские патрули, технология могла бы сделать так, чтобы полицейские всегда потрошили районы с высокой статистикой арестов. В Штатах такими районами являются этнические трущобы. Будет больше арестов, и алгоритм превратится в замкнутый круг.

Без надежного внешнего корректора алгоритмы машинного обучения могут «пристраститься»  к тому цифровому мусору, который они сами же и создают. Политики на Западе привыкли относиться к машинному обучению как к беспристрастному и трезвому инструменту, забывая, что такой инструмент может только интенсифицировать те проблемы, для решения которых он создавался. 

Еще до изобретения машинного обучения автократии использовали количественные методы для получения обратной связи. Китай десятилетиями пытался скомбинировать децентрализацию экономики с жесткой централизацией политической власти, опираясь на некие статистические мерила – например рост ВВП. Провинциальные чиновники, например, росли в должностях, потому что их провинции демонстрировали высокие статистические показатели экономического роста.

Однако из-за одержимости высокими показателями ВВП из поля зрения выпадали такие факторы, как уровень коррупции, задолженности и загрязнения окружающей среды из-за экономической деятельности. Таким образом, местные китайские чиновники работали на прирост ВВП, то есть решали кратко- и среднесрочные задачи, забывая о долгосрочных проблемах и оставляя их своим последователям.

Это ярко проявило себя во время первой реакции Компартии Китая на COVID-19 в провинции Хубей в конце 2019 года. После вспышки вируса SARS в 2003 году Китай создал систему регистрации заболеваемости, но в 2019, вместо того, чтобы использовать этот цифровой продукт в полной мере, он поступил стандартно – подверг репрессиям ученого, который первым объявил о наличии нового вируса, похожего на SARS. Уханьские товарищи всеми силами пытались не допустить утечки информации о вспышке неизвестной инфекции до внимания центрального аппарата Компартии в Пекине, постоянно говоря, что новых случаев нет.

Потом Пекин начал активно реагировать на пандемию, избрав подход «нулевого заражения» и применяя проверенные методы – принуждение и изоляцию, чтобы не допустить новых случаев.  Этот подход показал себя хорошо в краткосрочной перспективе, но потом появился супертрансмиссивный Omicron, что заставило Китай ввести режим массивного локдауна. Эти меры заставили людей страдать, а экономику тормозить. Но подобный подход был весьма успешен в деле достижения одного конкретного результата – максимального сокращения уровня общего заражения.

Продолжение следует

Дарын Абилмажин

Recent Posts

Дома для пострадавших от паводков начали строить в Костанайской области

Уже в скором времени, ключи от новых домов получат семьи в Джангельдинском районе: там началось…

3 дня ago

Новый праздник: в календаре появится Национальный день книги

На портале "Открытые НПА" министерство туризма и спорта опубликовало проект постановления о праздновании в Казахстане…

3 дня ago

Виновных в распространении «списка девственниц» накажут в любом случае

Если уголовное дело по факту несанкционированного распространения персональных данных студенток КазНУ имени аль-Фараби закроют, профильное…

3 дня ago

Чего добивается Вашингтон от Астаны рассказал политолог

Данияр Ашимбаев считает что усиливающая критика Казахстана со стороны США связана с геополитическими и экономическими…

3 дня ago

Кому президент вручил награды за мужество и самоотверженность

Указом Главы государства за мужество и самоотверженность, проявленные при исполнении воинского и служебного долга, вклад…

3 дня ago

Купальный сезон: с городского пляжа Конаева вывезли 10 тонн мусора

Жители Конаева очистили городской пляж от мусора в рамках акции «Мөлдір бұлақ», сообщает пресс-служба городского акимата Закладка…

3 дня ago