Этические вызовы, которые бросает искусственный интеллект (ИИ), — одна из главных тем XXI века. Принято считать, что потенциальные выгоды от применения ИИ велики: от операционных улучшений, таких как снижение числа человеческих ошибок (например, при постановке медицинских диагнозов), до использования роботов в опасных ситуациях (например, для обеспечения безопасности ядерной электростанции после аварии). В то же время ИИ ставит множество этических проблем — от предвзятости в работе алгоритмов и цифрового разрыва до проблем здоровья и безопасности.
Сфера ИИ превратилась в широкомасштабный проект, в который вовлечены самые разные заинтересованные лица. Однако в этике ИИ нет ничего нового. Концепции ИИ почти 70 лет [McCarthy et al., 2006], и озабоченность его развитием с точки зрения этики высказывалась уже в середине XX века [Wiener, 1954; Винер, 2001; Dreyfus, 1972; Дрейфус, 1978; Weizenbaum, 1977; Вейценбаум, 1982]. Сейчас эти дебаты активизировались благодаря более широкому интересу к применению и воздействию усовершенствованных алгоритмов, большей доступности вычислительных мощностей и растущему объему данных, которые могут использоваться для анализа [Hall, Pesenti, 2017].
Эти технические достижения благоприятствовали развитию определенных типов ИИ, в особенности машинного обучения [Alpaydin, 2020; Faggella, 2020], одной из популярных форм которого, в свою очередь, является глубокое обучение (см. врезку) [LeCun et al., 2015]. Успех этих подходов к ИИ привел к быстрому расширению сферы его применения, что нередко влекло за собой этически неоднозначные последствия, например, несправедливое или незаконное господство, дискриминацию и вмешательство в политику.
С расширением сферы применения ИИ его этика выходит далеко за пределы академической науки. Так, «Римская петиция об этике ИИ»1, выпущенная в феврале 2020 года, связывает Ватикан с Продовольственной и сельскохозяйственной организацией ООН (ФАО), Microsoft, IBM и итальянским Министерством технологических инноваций и цифровизации. Еще один пример: в июле 2021 года ЮНЕСКО собрало 24 экспертов со всего мира и запустило международные онлайн-консультации по этике ИИ, чтобы облегчить диалог между всеми странами — членами этой организации. Большой интерес также проявляет пресса, хотя некоторые ученые считают, что вопросы этики ИИ в ней рассматриваются слишком «поверхностно» [Ouchchy et al., 2020].
Бернд Карстен Шталь, Дорис Шредер, Ровена Родригес - Этика искусственного интеллекта - Кейсы и варианты решения этических проблем
Перевод с английского Инны Кушнаревой под научной редакцией Александра Павлова. – Москва: Издательский дом Высшей школы экономики, 2024. – 200 с. - (Исследования культуры). — 600 экз.
ISBN 978-5-7598-2981-2 (в пер.).
ISBN 978-5-7598-4053-4 (e-book).
Бернд Карстен Шталь, Дорис Шредер, Ровена Родригес - Этика искусственного интеллекта – Содержание
Благодарности
ГЛАВА 1. ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ВВЕДЕНИЕ
- Несправедливая и незаконная дискриминация (глава 2)
- Неприкосновенность частной жизни (глава 3)
- Надзорный капитализм (глава 4)
- Манипуляция (глава 5)
- Право на жизнь, свободу и личную безопасность (глава 6)
- Человеческое достоинство (глава 7)
- «ИИ во благо» и Цели ООН в области устойчивого развития (глава 8)
- Библиография
ГЛАВА 2. НЕСПРАВЕДЛИВАЯ И НЕЗАКОННАЯ ДИСКРИМИНАЦИЯ
- 2.1. Введение
-
2.2. Кейсы дискриминации, которой способствовал ИИ
- 2.2.1. Кейс 1: Предубежденность в инструментах найма на работу
- 2.2.2. Кейс 2: Дискриминирующее использование ИИ в правоохранительной системе и для профилактических полицейских мер
- 2.2.3. Кейс 3: Дискриминация на основе цвета кожи
- 2.3. Этические вопросы, связанные с дискриминацией, которой способствуют ИИ
-
2.4. Меры по борьбе с несправедливой/незаконной дискриминацией
- 2.4.1. Оценка воздействия ИИ
- 2.4.2. Этика, заложенная в дизайн
- 2.5. Выводы
- Библиография
ГЛАВА 3. НЕПРИКОСНОВЕННОСТЬ ЧАСТНОЙ жизни
- 3.1. Введение
-
3.2. Кейсы нарушения неприкосновенности частной жизни по вине ИИ
- 3.2.1. Кейс 1: Использование персональных данных авторитарными режимами
- 3.2.2. Кейс 2: Неприкосновенность генетических данных
- 3.2.3. Кейс 3: Биометрический надзор
- 3.3. Защита данных и неприкосновенность частной жизни
- 3.4. Меры по борьбе с угрозами неприкосновенности частной жизни, порождаемыми ИИ
- 3.5. Выводы
- Библиография
ГЛАВА 4. НАДЗОРНЫЙ КАПИТАЛИЗМ
- 4.1. Введение
-
4.2. Кейсы надзорного капитализма, использующего ИИ
- 4.2.1. Кейс 1: Присвоение данных
- 4.2.2. Кейс 2: Монетизация данных о здоровье
- 4.2.3. Кейс 3: Нечестные коммерческие практики
- 4.3. Этические вопросы надзорного капитализма
-
4.4. Меры противодействия надзорному капитализму
- 4.4.1. Антимонопольное законодательство
- 4.4.2. Доступ и шеринг данных
- 4.4.3. Укрепление права собственности потребителей/индивидов на их данные
- 4.5. Выводы
- Делить компании, опираясь на антимонопольное законодательство, сложно
- Являются ли «работники крупных технологических компаний одним из главных сдерживающих факторов роста ее власти»?
- Библиография
ГЛАВА 5. МАНИПУЛЯЦИЯ
- 5.1. Введение
-
5.2. Кейсы манипулирования при помощи ИИ
- 5.2.1. Кейс 1: Манипуляции на выборах
- 5.2.2. Кейс 2: Продвижение продаж в «моменты уязвимости для внушения»
- 5.3. Этика манипуляции
- 5.4. Меры для борьбы с манипуляциями
- 5.5. Выводы
- Библиография
ГЛАВА 6. ПРАВО НА ЖИЗНЬ, СВОБОДУ И ЛИЧНУЮ БЕЗОПАСНОСТЬ
- 6.1. Введение
-
6.2. Кейсы, в которых ИИ негативно влиял на право на жизнь, свободу и личную безопасность
- 6.2.1. Кейс 1: Смертельная авария с участием беспилотного автомобиля
- 6.2.2. Кейс 2: Уязвимости в системе управления умными домами
- 6.2.3. Кейс 3: Состязательные атаки в медицинской диагностике
-
6.3. Этические вопросы
- 6.3.1. Безопасность человека
- 6.3.2. Неприкосновенность частной жизни
- 6.3.3. Ответственность и подотчетность
-
6.4. Меры по защите жизни, свободы и безопасности людей
- 6.4.1. Внедрение и укрепление режимов ответственности
- 6.4.2. Управление качеством систем ИИ
- 6.4.3. Состязательная устойчивость
- 6.5. Выводы
- Библиография
ГЛАВА 7. ЧЕЛОВЕЧЕСКОЕ ДОСТОИНСТВО
- 7.1. Введение
-
7.2. Кейсы с потенциальным конфликтом между ИИ и человеческим достоинством
- 7.2.1. Кейс 1: Несправедливое увольнение
- 7.2.2. Кейс 2: Секс-роботы
- 7.2.3. Кейс 3: Роботы-сиделки
- 7.3. Этические вопросы, касающиеся ИИ и достоинства
- 7.4. Выводы
- Библиография
ГЛАВА 8. «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ ВО БЛАГО» И ЦЕЛИ УСТОЙЧИВОГО РАЗВИТИЯ
- 8.1. Введение
-
8.2. Приносит ли «ИИ во благо» благо? Кейсы
- 8.2.1. Кейс 1: Сезонное прогнозирование климата в условиях ограниченных ресурсов
- 8.2.2. Кейс 2: «Вертолетные исследования»
-
8.3. Этические вопросы, возникающие в связи с «ИИ во благо» и ЦУР
- 8.3.1. Пустыня данных или неравномерное распределение доступности данных
- 8.3.2. Двойные стандарты
- 8.3.3. Невнимание к социальным составляющим проблем, которые призваны решить ЦУР
- 8.3.4. Слон в комнате: цифровой разрыв и нехватка талантов для ИИ
- 8.3.5. Нерешенные важные проблемы, в которых ИИ и ЦУР вступают в конфликт
- 8.4. Выводы
- Библиография
ГЛАВА 9. ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ЗАКЛЮЧЕНИЕ
Библиография
Категории:
Благодарю сайт за публикацию: