Совет при президенте РФ по развитию гражданского общества и правам человека (СПЧ) и Минцифры России договорились выработать правила и ограничения использования искусственного интеллекта (ИИ) в определённых отраслях – начать предложено с образования, об этом сообщается в пятницу вечером в Telegram-канале СПЧ (РИА Новости ссылается на него как на официальный канал – ред.).
Глава СПЧ Валерий Фадеев встретился с министром цифрового развития, связи и массовых коммуникаций РФ Максутом Шадаевым, предложив обсудить статью председателя Конституционного Суда РФ Валерия Зорькина о необходимости конституционно-правового анализа внедрения ИИ.
Упомянутая статья Валерия Зорькина «Право и вызовы искусственного интеллекта» опубликована в «Российской газете» в субботу. Ранее, в июне, автор выступал на эту же тему в Санкт-Петербурге на юридическом форуме. Текст производит впечатление глубиной, логичностью и качеством изложения.
Основные положения статьи с их обоснованием содержатся в самом тексте по приведённой выше ссылке. Эти положения таковы.
1. ИИ неизбежен. Не позже 2060 ИИ-системы превзойдут по интеллекту (здесь: способности к обработке данных и принятию решений по её результатам – ред.) человека.
2. ИИ опасен: «Это разум, который может полностью игнорировать всё, что мы считаем ценностно важным. Сами духовные и крестные отцы ИИ, трубадуры великих преимуществ ИИ предупреждают, что подобная сущность, потенциально более опасная, чем ядерное оружие, может в конечном итоге уничтожить жизнь на Земле».
3. Будучи юристом, автор намечает в области права план действий, которые помогут человеку «как биологическому виду» избежать опасности. Главный вопрос: является ИИ объектом или субъектом права.
Это «огромной важности мировоззренческий вопрос, во многом связанный с настоящим и будущим человечества». Ответ на этот вопрос: ИИ, как и всякая иная машина, не может быть субъектом права.
Постулаты сторонников иной точки зрения (например, утверждение, будто человек и ИИ – это в конечном счёте нейросеть, только по-разному реализованная) Валерий Зорькин критикует достаточно мягко, но всесторонне.
4. Попытки наделить ИИ правовой субъектностью находятся в согласии с идеями трансгуманизма – аморальной системы воззрений, допускающей «технологические улучшения» (Techno sapiens) человека вплоть до «цифрового бессмертия», что хорошо иллюстрирует безумие желающих наделить машину правами человека. «Колонизация живого человека машинами», – пишет автор по этому поводу и не останавливается перед убедительным сравнением идеологии трансгуманизма с бесчеловечными (буквально) экспериментами немецкого нацизма.
5. Правильная защитная реакция «нашего биологического вида» на эту угрозу – считать объектом права, несущим ответственность за действия ИИ-системы, только человека. «Деликтная (внедоговорная – ред.) ответственность за ошибку робота может устанавливаться как общими нормами гражданского права, так и специальными законоположениями, но в любом случае отвечать должен человек – индивид или коллективный субъект (программист, производитель, пользователь и иные лица в зависимости от формы и степени их вины, а также тяжести наступивших последствий)».
6. Угроза признания ИИ субъектом права между тем реальна. Для воплощения этой угрозы всё необходимое уже сделано постмодернизмом и массовой культурой.
Автор не высказывает явно, но даёт возможность читателю самому понять, что сторонники идеи равенства ИИ и человека рассчитывают на недостаточность нашего – естественного – интеллекта. А он действительно недостаточен, коль скоро идеи трансгуманизма и трансгендеризма удалось навязать значительному числу Homo sapiens.
7. Сказанное не значит отказ от моделирования правового статуса ИИ. Напротив, такой статус следует выработать, это сфера деятельности цивилистов.
При определении правового статуса ИИ подлежат соблюдению два принципа: 1) защита прав и свобод человека, в том числе права на труд, а также создание благоприятных условий для адаптации человека к цифровой экономике. 2) обеспечение безопасности через противодействие противоправному использованию ИИ и устранение связанных с развитием ИИ рисков.
«Будем разбираться в конкретных отраслях, разрабатывать конкретные правила и на уровне отраслей определять объём собираемых данных. Начать предлагаю с образования как самой «фонящей» темы. Подготовим наши предложения в ближайший месяц», – сказал в пятницу Максут Шадаев.
См. также: ИИ для проверки домашних заданий и рекомендательные ИИ-системы – новая стратегия в области цифровой трансформации образования >>>
Среди актуальных тем, которые затронули на встрече Валерий Фадеев и член СПЧ Игорь Ашманов:
- избыточный сбор и незаконный оборот персональных данных, возможности их минимизации и борьба с утечками;
- ИИ все активнее пытаются использовать при анализе медицинских данных и постановке диагноза, но есть опасность профессиональной деградации медиков, которые предпочтут отдавать решения на откуп ИИ;
См. также: В Москве цифровизация онколабораторий сократила время на постановку диагноза на 15-20% – мэрия >>>
Росздравнадзор прекратил использование ИИ-системы диагностики из-за её опасности для пациентов – СМИ >>>
- новые цифровые технологии предположительно позволяют более тщательно следить за успехами и неудачами школьников, но это чревато выстраиванием траектории развития детей, и здесь кроются большие риски – гуманистическая педагогика предполагает необходимость для ребёнка проявить себя в разных ипостасях и ситуациях.
По итогам дискуссии стороны договорились выработать правила и ограничения для использования ИИ в определённых отраслях. В частности, в здравоохранении, образовании, судопроизводстве, транспорте, сфере безопасности и психологической помощи.