Шталь - Шредер - Родригес - Этика искусственного интеллекта

Бернд Карстен Шталь, Дорис Шредер, Ровена Родригес - Этика искусственного интеллекта - Кейсы и варианты решения этических проблем
Этические вызовы, которые бросает искусственный интеллект (ИИ), — одна из главных тем XXI века. Принято считать, что потенциальные выгоды от применения ИИ велики: от операционных улучшений, таких как снижение числа человеческих ошибок (например, при постановке медицинских диагнозов), до использования роботов в опасных ситуациях (например, для обеспечения безопасности ядерной электростанции после аварии). В то же время ИИ ставит множество этических проблем — от предвзятости в работе алгоритмов и цифрового разрыва до проблем здоровья и безопасности.
 
Сфера ИИ превратилась в широкомасштабный проект, в который вовлечены самые разные заинтересованные лица. Однако в этике ИИ нет ничего нового. Концепции ИИ почти 70 лет [McCarthy et al., 2006], и озабоченность его развитием с точки зрения этики высказывалась уже в середине XX века [Wiener, 1954; Винер, 2001; Dreyfus, 1972; Дрейфус, 1978; Weizenbaum, 1977; Вейценбаум, 1982]. Сейчас эти дебаты активизировались благодаря более широкому интересу к применению и воздействию усовершенствованных алгоритмов, большей доступности вычислительных мощностей и растущему объему данных, которые могут использоваться для анализа [Hall, Pesenti, 2017].
 
Эти технические достижения благоприятствовали развитию определенных типов ИИ, в особенности машинного обучения [Alpaydin, 2020; Faggella, 2020], одной из популярных форм которого, в свою очередь, является глубокое обучение (см. врезку) [LeCun et al., 2015]. Успех этих подходов к ИИ привел к быстрому расширению сферы его применения, что нередко влекло за собой этически неоднозначные последствия, например, несправедливое или незаконное господство, дискриминацию и вмешательство в политику.
 
С расширением сферы применения ИИ его этика выходит далеко за пределы академической науки. Так, «Римская петиция об этике ИИ»1, выпущенная в феврале 2020 года, связывает Ватикан с Продовольственной и сельскохозяйственной организацией ООН (ФАО), Microsoft, IBM и итальянским Министерством технологических инноваций и цифровизации. Еще один пример: в июле 2021 года ЮНЕСКО собрало 24 экспертов со всего мира и запустило международные онлайн-консультации по этике ИИ, чтобы облегчить диалог между всеми странами — членами этой организации. Большой интерес также проявляет пресса, хотя некоторые ученые считают, что вопросы этики ИИ в ней рассматриваются слишком «поверхностно» [Ouchchy et al., 2020].
 

Бернд Карстен Шталь, Дорис Шредер, Ровена Родригес - Этика искусственного интеллекта - Кейсы и варианты решения этических проблем

Перевод с английского Инны Кушнаревой под научной редакцией Александра Павлова. – Москва: Издательский дом Высшей школы экономики, 2024. – 200 с. - (Исследования культуры). — 600 экз.
ISBN 978-5-7598-2981-2 (в пер.).
ISBN 978-5-7598-4053-4 (e-book).
 

Бернд Карстен Шталь, Дорис Шредер, Ровена Родригес - Этика искусственного интеллекта – Содержание

Благодарности 
ГЛАВА 1. ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ВВЕДЕНИЕ 
  • Несправедливая и незаконная дискриминация (глава 2) 
  • Неприкосновенность частной жизни (глава 3) 
  • Надзорный капитализм (глава 4) 
  • Манипуляция (глава 5)
  • Право на жизнь, свободу и личную безопасность (глава 6) 
  • Человеческое достоинство (глава 7) 
  • «ИИ во благо» и Цели ООН в области устойчивого развития (глава 8) 
  • Библиография 
ГЛАВА 2. НЕСПРАВЕДЛИВАЯ И НЕЗАКОННАЯ ДИСКРИМИНАЦИЯ 
  • 2.1. Введение 
  • 2.2. Кейсы дискриминации, которой способствовал ИИ
    • 2.2.1. Кейс 1: Предубежденность в инструментах найма на работу
    • 2.2.2. Кейс 2: Дискриминирующее использование ИИ в правоохранительной системе и для профилактических полицейских мер 
    • 2.2.3. Кейс 3: Дискриминация на основе цвета кожи 
  • 2.3. Этические вопросы, связанные с дискриминацией, которой способствуют ИИ 
  • 2.4. Меры по борьбе с несправедливой/незаконной дискриминацией
    • 2.4.1. Оценка воздействия ИИ 
    • 2.4.2. Этика, заложенная в дизайн 
  • 2.5. Выводы 
  • Библиография 
ГЛАВА 3. НЕПРИКОСНОВЕННОСТЬ ЧАСТНОЙ жизни 
  • 3.1. Введение 
  • 3.2. Кейсы нарушения неприкосновенности частной жизни по вине ИИ
    • 3.2.1. Кейс 1: Использование персональных данных авторитарными режимами 
    • 3.2.2. Кейс 2: Неприкосновенность генетических данных 
    • 3.2.3. Кейс 3: Биометрический надзор 
  • 3.3. Защита данных и неприкосновенность частной жизни 
  • 3.4. Меры по борьбе с угрозами неприкосновенности частной жизни, порождаемыми ИИ 
  • 3.5. Выводы 
  • Библиография 
ГЛАВА 4. НАДЗОРНЫЙ КАПИТАЛИЗМ 
  • 4.1. Введение 
  • 4.2. Кейсы надзорного капитализма, использующего ИИ
    • 4.2.1. Кейс 1: Присвоение данных 
    • 4.2.2. Кейс 2: Монетизация данных о здоровье 
    • 4.2.3. Кейс 3: Нечестные коммерческие практики 
  • 4.3. Этические вопросы надзорного капитализма 
  • 4.4. Меры противодействия надзорному капитализму
    • 4.4.1. Антимонопольное законодательство 
    • 4.4.2. Доступ и шеринг данных 
    • 4.4.3. Укрепление права собственности потребителей/индивидов на их данные 
  • 4.5. Выводы 
  • Делить компании, опираясь на антимонопольное законодательство, сложно 
  • Являются ли «работники крупных технологических компаний одним из главных сдерживающих факторов роста ее власти»? 
  • Библиография 
ГЛАВА 5. МАНИПУЛЯЦИЯ 
  • 5.1. Введение 
  • 5.2. Кейсы манипулирования при помощи ИИ
    • 5.2.1. Кейс 1: Манипуляции на выборах 
    • 5.2.2. Кейс 2: Продвижение продаж в «моменты уязвимости для внушения» 
  • 5.3. Этика манипуляции 
  • 5.4. Меры для борьбы с манипуляциями 
  • 5.5. Выводы 
  • Библиография 
ГЛАВА 6. ПРАВО НА ЖИЗНЬ, СВОБОДУ И ЛИЧНУЮ БЕЗОПАСНОСТЬ 
  • 6.1. Введение 
  • 6.2. Кейсы, в которых ИИ негативно влиял на право на жизнь, свободу и личную безопасность
    • 6.2.1. Кейс 1: Смертельная авария с участием беспилотного автомобиля 
    • 6.2.2. Кейс 2: Уязвимости в системе управления умными домами 
    • 6.2.3. Кейс 3: Состязательные атаки в медицинской диагностике 
  • 6.3. Этические вопросы
    • 6.3.1. Безопасность человека
    • 6.3.2. Неприкосновенность частной жизни 
    • 6.3.3. Ответственность и подотчетность 
  • 6.4. Меры по защите жизни, свободы и безопасности людей
    • 6.4.1. Внедрение и укрепление режимов ответственности
    • 6.4.2. Управление качеством систем ИИ 
    • 6.4.3. Состязательная устойчивость 
  • 6.5. Выводы 
  • Библиография 
ГЛАВА 7. ЧЕЛОВЕЧЕСКОЕ ДОСТОИНСТВО 
  • 7.1. Введение 
  • 7.2. Кейсы с потенциальным конфликтом между ИИ и человеческим достоинством
    • 7.2.1. Кейс 1: Несправедливое увольнение 
    • 7.2.2. Кейс 2: Секс-роботы 
    • 7.2.3. Кейс 3: Роботы-сиделки 
  • 7.3. Этические вопросы, касающиеся ИИ и достоинства 
  • 7.4. Выводы
  • Библиография 
ГЛАВА 8. «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ ВО БЛАГО» И ЦЕЛИ УСТОЙЧИВОГО РАЗВИТИЯ 
  • 8.1. Введение 
  • 8.2. Приносит ли «ИИ во благо» благо? Кейсы
    • 8.2.1. Кейс 1: Сезонное прогнозирование климата в условиях ограниченных ресурсов 
    • 8.2.2. Кейс 2: «Вертолетные исследования» 
  • 8.3. Этические вопросы, возникающие в связи с «ИИ во благо» и ЦУР
    • 8.3.1. Пустыня данных или неравномерное распределение доступности данных 
    • 8.3.2. Двойные стандарты 
    • 8.3.3. Невнимание к социальным составляющим проблем, которые призваны решить ЦУР 
    • 8.3.4. Слон в комнате: цифровой разрыв и нехватка талантов для ИИ 
    • 8.3.5. Нерешенные важные проблемы, в которых ИИ и ЦУР вступают в конфликт 
  • 8.4. Выводы 
  • Библиография 
ГЛАВА 9. ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ЗАКЛЮЧЕНИЕ 
Библиография 
 
 

Категории: 

Благодарю сайт за публикацию: 

Ваша оценка: Нет Average: 10 (2 votes)
Аватар пользователя brat Vadim