Китай и Запад создают два совсем разных ИИ


Чем закончилось сосуществование двух представителей рода людей, известно. Неандертальцам пришлось исчезнуть, оставив лишь след в наших генах.

Так что же за отличия привели к тому, что один из представителей рода людей истребил другого?

Точно не знает никто. Однако, кровавая история взаимоистребления людей позволяет предположить, что главные непримиримые различия носили этический характер.

Последнее время этика разрабатываемых ИИ – горячая тема и на Западе, и в Китае, да и у нас. Но среди обсуждаемых аспектов этой темы мало кто обращает внимание, сколь разительны подходы к вопросам этики ИИ у Запада и Китая. Эти различия, а также их философские корни и культурный контекст анализируются в только опубликованной работе Паскаля Фунга (директор Centre for Artificial Intelligence Research в Гонконге) и Хьюберта Этьена, специализирующегося на этике ИИ в парижской Ecole Normale Supérieure.

Сухой остаток ключевых выводов анализа таков

1. Принципиальное отличие западного подхода к этике ИИ (далее просто ЗПД) от подхода Китая (КИТ) в том, что в основе ЗПД лежат индивидуальные ценности, а в основе КИТ коллективные. Это делает этику двух направлений развития ИИ лишь внешне похожей, но по сути, несводимой друг к другу во всех важнейших вопросах.

  • ЗПД уходит корнями в эпоху Просвещения, имея главной целью защитить людей от конкретных видов вреда.

  • КИТ стоит на принципах конфуцианской ценностью “гармонии” и имеет главной целью поддерживать в обществе при внедрении самых передовых практик “высокое чувство социальной ответственности и самодисциплины”.

  • ЗПД направлен на соблюдение справедливости и разнообразия подходов в отношении лиц из определенных демографических групп (пол, этническая принадлежности, ограниченные возможности людей и т.д.) и защиту уязвимых лиц и потенциальных жертв.

  • КИТ направлен на модернизацию “всех отраслей”, сокращению “региональных различий” и “инклюзивное развитие за счет улучшения образования и профессиональной подготовки”.

  • Для ЗПД развитие ИИ “должно быть справедливым”.

  • Для КИТ оно должно “максимально устранить предрассудки и дискриминацию”.

2. Принципиально разная трактовка проблемы конфиденциальности персональных данных и в целом проблем цифровой безопасности.

  • ЗПД правила конфиденциальности охватывают защиту персональных данных, как государственных, так и коммерческих организаций.

  • КИТ правила конфиденциальности, напротив, нацелены только на частные компании и их потенциальных вредоносных агентов.

  • ЗПД видит, как минимум, паритет интересов общества и правительства при решении вопросов цифровой безопасности.

  • КИТ ориентирован на высочайшем доверии общества к своему правительству (оно все сделает как надо).

3. Разрыв между Утопией и Дистопией будущего ИИ (разрыв в культурном представлении ИИ, воспринимаемого, как сила добра в КИТ и как глубоко укоренившаяся настороженность по поводу мрачного технологического будущего в ЗПД).

  • ПД акцентирует внимание на рисках “мятежных машин”, как их изображают западные медиа, на что сильно влияет фантастика киберпанка, воплощенная в таких фильмах, как "Бегущий по лезвию" и "Матрица", а также сериал "Черное зеркало".

  • КИТ акцентируется на роботах - домашних питомцах, компаньонов для пожилых и наставниках для молодых.

4. Что же до названных в работе Фунга и Этьена точек соприкосновения двух столь разных подходов, то они, на мой взгляд, весьма призрачны и эфемерны.

  • ЗПД и КИТ рассматривают наука и технологическое развитие, как основные двигатели экономического роста, ведущие к улучшению гармоничного общества (по мне, так весьма сомнительное утверждение).

  • ЗПД и КИТ привержены продекларированным ООН целям устойчивого развития (имхо, не менее сомнительное утверждение).

Резюме

Итог проведенного анализа, имхо, явственно показывает несводимость этики создаваемых Западом и Китаем ИИ. Это приведет, по моему мнению, к тому или иному способу вытеснения одного ИИ другим.

  • Как с разными электро-розетками и вилками не получится (у одних такие, у других иные).

  • Интернет тоже можно разделить, и это не сильно помешает прогрессу.

  • А вот разделить ИИ вектор развития на два вектора, различающихся этическими принципами, полагаю, нет.

И если, например, полмира имеют этику строителей коммунизма и видят представителей альтернативной этики главными врагами своего строительства (как это уже было), то кончается это так же, как было у сапиенсов с неандертальцами:

кому-то придется исчезнуть, оставив лишь малый чужеродный след, на сей раз, - в алгоритмах своего ИИ.

P.S. Оставляю читателям самим оценить, к какой из двух парадигм ближе российский подход к этике ИИ. Хотя на мой взгляд, вывод очевиден.




Article Categories:
Политика