banner
banner
banner
banner

Новая математическая идея обуславливает склонность ИИ к неэтичному и дорогостоящему коммерческому выбору

2
artificial intelligence

Исследователи из Уорикского университета, Лондонского имперского колледжа, EPFL (Лозанна) и Sciteb Ltd нашли математическое средство, помогающее регуляторам и бизнесу управлять и Полицейские системы искусственного интеллекта склоняются к тому, чтобы делать неэтичные и потенциально очень дорогостоящие и наносящие ущерб коммерческие решения - этический взгляд на ИИ.

Искусственный интеллект (ИИ) все чаще используется в коммерческих ситуациях. Рассмотрим, например, использование AI для определения цены страховых продуктов, которые будут проданы конкретному клиенту. Существуют законные причины для установления разных цен для разных людей, но также может быть выгодно «обыграть» их психологию или готовность ходить по магазинам.

У ИИ есть множество потенциальных стратегий на выбор, но некоторые из них неэтичны и повлекут за собой не только моральные издержки, но и значительные потенциальные экономические потери, поскольку заинтересованные стороны будут применять некоторые штрафы, если они обнаружат, что такие была использована стратегия - регулирующие органы могут наложить значительные штрафы в миллиарды долларов, фунтов или евро, а клиенты могут бойкотировать вас - или обоих.

Таким образом, в среде, в которой решения все чаще принимаются без вмешательства человека, существует очень сильный стимул знать, при каких обстоятельствах системы ИИ могут принять неэтичную стратегию и снизить этот риск или полностью устранить его, если это возможно.

Математики и статистики из Уорикского университета, Империал, EPFL и Sciteb Ltd пришли все вместе, чтобы помочь бизнесу и регуляторам создать новый «Принцип неэтичной оптимизации» и предоставить простую формулу для оценки его воздействия. Они выложили все подробности в статье под названием «Принцип неэтичной оптимизации», опубликованной в Королевском обществе открытых наук в среду 1 июля 2020.

Четыре автора статьи - Николас Бил из Sciteb Ltd; Хизер Батти из математического факультета Императорского колледжа в Лондоне; Энтони К. Дэвисон из Института математики, Политехническая школа Лозанны; и профессор Роберт Маккей из Математического института Уорикского университета.

Профессор Роберт Маккей из Математического института Университета Уорика сказал:

«Наш предложенный« Принцип неэтичной оптимизации »может быть использован для помощи регуляторам персонал, отвечающий за соблюдение нормативных требований, и другие, чтобы найти проблемные стратегии, которые могут быть скрыты в большом пространстве стратегий. Можно ожидать, что оптимизация выберет непропорционально много неэтичных стратегий, проверка которых должна показать, где могут возникнуть проблемы, и, таким образом, предложить, как алгоритм поиска ИИ должен быть изменены, чтобы избежать их в будущем.

"Принцип также предполагает, что может быть необходимо повторно Подумайте, как ИИ работает в очень больших стратегических пространствах, так что неэтичные результаты явно отвергаются в процессе оптимизации / обучения ».


0
Article Tags:

Оставьте комментарий