ЕС взялся за ИИ: новый закон призван защитить пользователей Европы от ИИ-систем «высокого риска»
В Европейском парламенте приняли новый закон, который называется AI Act. Он устанавливает требования для разработчиков ИИ, а также правила, которым должны подчиняться создатели таких систем. Это позволит, как ожидается, обеспечить безопасность, прозрачность, экологичность и этичность в вопросе применения ИИ на территории ЕС.
Сгенерировано нейросетью Midjourney
Так, новый закон запрещает использование ИИ-систем с неприемлемым уровнем риска для безопасности людей. Это, к примеру, системы, которые так или иначе манипулируют людьми, используя социальную инженерию, различные методы манипуляций или использующиеся для социальных оценок.
Помимо этого, ИИ запрещено использовать для таких задач:
- Удалённая биометрическая идентификация в общественных местах и в режиме реального времени. Это разрешается только полиции и лишь после решения суда.
- Использование ИИ для разделения людей на категории по гендерным, расовым, религиозным или иным параметрам.
- Использование прогностических систем для полиции, которые работают на базе профилирования.
- Использование ИИ для распознавания эмоций в правоохранительных органах, пограничных службах, в учебных заведениях и на рабочих местах.
- Извлечение биометрических данных из социальных сетей или с видеозаписей с камер видеонаблюдения для создания базы данных.
Также закон вводит понятие ИИ-систем «высокого риска», которые могут потенциально причинить вред человеку. В числе таковых есть рекомендательные алгоритмы социальных сетей. Их разработчикам нужно будет обеспечивать высокое качество данных для обучения ИИ, а также зарегистрировать системы в европейской базе данных.
При использовании же чат-ботов, разработчики и поставщики обязаны уведомить пользователей, что те они взаимодействуют с ИИ, а не с живым оператором. Для генеративных же нейросетей установлено требование об указании авторства контента. То есть, нужно явно указать, что картинка или текст сгенерированы ИИ.
Источник: www.ixbt.com