10 февраля в Париже открывается «Саммит по действиям в области искусственного интеллекта». В нем намерены принять участие не менее ста глав государств и правительств, в том числе из США и Китая, а также представители гражданского общества и руководители высокотехнологичных компаний, занимающихся Искусственным интеллектом, включая Илона Маска, Сэма Альтмана (OpenAI) и Сундара Пичаи, пишет Le Monde. А 2 февраля в Европейском Союзе 2 февраля вступил в силу регламент использования искусственного интеллекта, на основе первого в мире всеобъемлющего международного законодательства, известного как Закон ЕС об искусственном интеллекте (EU AI Act).
Реализация этого регламента будет происходить поэтапно и остается предметом споров и потенциальных возражений. Эти темы наверняка всплывут и на самом саммите, особенно вопросы влияния регламента на бизнес компаний связанных с Искусственным интеллектом, как разработчиков, так и пользователей.
13 марта 2024 года Европарламент большинством 523 голосов «за» (при 46 «против» и 49 воздержавшихся) одобрил итоговый вариант регуляции об искусственном интеллекте. Документ был согласован ещё в декабре 2023 года с Еврокомиссией и государствами-членами ЕС. В коммюнике Европарламента уточняется, что целью регламента является «защита фундаментальных прав, демократии, верховенства закона и экологической устойчивости от высоко рискованного искусственного интеллекта», а также стимулирование инноваций и укрепление лидерства Европы в этой сфере.
Данный закон является не директивой, а регламентом, т.е. нормативным документом прямого действия. Этот факт нужно будет учитывать всем, кто в ЕС разрабатывает ИИ или активно внедряет его в свою деятельность. Компания Eesti Firma специализируется на юридическом и корпоративном сопровождении и консалтинге на рынке криптоактивов, ИИ и других цифровых ценностей.
Основные запреты и исключения
Некоторые области применения искусственного интеллекта Законом об ИИ полностью запрещаются, в частности запрещено массовое биометрическое наблюдение в режиме реального времени. Остальные приложения делятся на несколько классов риска: от минимального до высокого. Для каждого уровня установлены соответствующие требования к безопасности и прозрачности.
С 2 февраля правилами ЕС запрещены системы ИИ, представляющие «неприемлемые риски» для безопасности и прав людей. Исключения касаются случаев, связанных с национальной безопасностью.
В частности запрещены программы, оценивающие социальное поведение человека и присваивающие ему определённые «баллы». Такой метод социального рейтинга (social scoring) применяется в Китае для поощрения или наказания граждан в зависимости от их поведения.
Нельзя использовать технологии распознавания эмоций на рабочих местах и в образовательных учреждениях. Под запрет поставлен ИИ, применяющий обманные методы воздействия, особенно на детей. Например, говорящие игрушки, побуждающие ребёнка к опасному поведению.
Исключаются из оборота системы, эксплуатирующие уязвимые группы населения. К ним относятся и «роботизированные звонки» (Robo-Calls), потенциально используемые для мошенничества в отношении пожилых людей.
Также запрещено распознавание лиц в общественных местах. В большинстве случаев такая технология под запретом. Однако правоохранительным органам разрешено её применять при расследовании тяжких преступлений, особенно связанных с торговлей людьми и терроризмом. Катерина Роделли (Caterina Rodelli), аналитик по вопросам политики ЕС в глобальной правозащитной организации Access Now, скептически относится к этим исключениям: «Если в запрете есть исключения, это уже не запрет», приводит ее слова Euronews.
Оценка риска
Компании, которые разрабатывают или используют ИИ, обязаны сами оценивать уровень риска своих систем и принимать меры для их соответствия правовым нормам. Согласно разъяснениям Еврокомиссии, задача регулятора — не задушить инновации, а добиться безопасного и прозрачного применения искусственного интеллекта. Поэтому поставщики ИИ должны гарантировать, что все, кто участвует в создании и эксплуатации подобных систем, обладают достаточными «ИИ-компетенциями».
За несоблюдение норм Закона об ИИ ЕС компаниям грозят штрафы до 35 млн. евро или 7% от их мирового годового оборота — в зависимости от того, какая сумма выше. Размер штрафа будет зависеть от конкретного нарушения и масштабов деятельности компании. Это выше, чем максимальные штрафы, предусмотренные GDPR — законом ЕС о конфиденциальности данных в цифровой сфере, где штрафы могут достигать 20 млн. евро или 4% годового мирового оборота.
Критика и предостережения
Тасос Стампелос (Tasos Stampelos), руководитель направления публичной политики и взаимодействия с правительственными органами ЕС в Mozilla, ранее заявил CNBC, что, хотя закон «не идеален», он «очень необходим».
«Важно понимать, что Закон об ИИ в основном относится к законодательству о безопасности продукции, — сказал Стампелос на конференции, организованной CNBC — Как и в случае с нормами безопасности, принятие закона не означает, что всё уже окончено. После этого следует множество дополнительных шагов и уточнений».
«Прямо сейчас соблюдение закона будет зависеть от того, как будут выглядеть стандарты, руководства, вторичное законодательство и производные инструменты, которые последуют за Законом об ИИ и на самом деле установят, что подразумевается под соблюдением», — добавил он.
Отраслевой союз Bitkom (Германия) назвал новый закон недостаточно ясным. По словам члена правления Bitkom Зузанне Демель политики установили жёсткие требования и сжатые сроки, но «не сделали свою домашнюю работу»: компании вынуждены сами разбираться в правовых рисках. В то время как в США в ИИ инвестируют сотни миллиардов долларов, а в Китае создаются мощные языковые модели, в Германии и ЕС, по мнению Демель, «ставят палки в колёса» разработчикам.
Председатель Еврокомиссии Урсула фон дер Ляйен (Ursula von der Leyen) и президент Европейского центрального банка Кристин Лагард в совместном блоге отметили, что конкурентоспособность Европы в сфере ИИ под угрозой. По их словам, «пока мир переживает революцию в области искусственного интеллекта, ЕС рискует остаться в стороне
Разные подходы: ЕС и США при Дональде Трампе
На фоне принятия европейского регулирования правительство США под вторым президентским сроком Дональда Трампа (начавшимся в январе 2025 года) избрало противоположную стратегию. Администрация Трампа ослабляет существующие ограничения, сняв указы предыдущего президента и объявив о привлечении крупных инвестиций со стороны технологической индустрии.
Так Белый дом объявил о запуске инфраструктурного проекта Stargate с общим объёмом инвестиций до 500 млрд. долларов в течение четырёх лет. Эта сумма должна пойти на развитие центров обработки данных и других компонентов инфраструктуры ИИ. Президент Трамп подчеркнул, что «всё это происходит здесь, в Америке» и пообещал в ближайшие 180 дней представить подробный «План действий в области ИИ».
Аналитики отмечают, что главная цель новой американской стратегии — укрепить доминирование США в сфере ИИ. Эксперты считают, что различие подходов ЕС и США будет иметь долгосрочные последствия для мировой гонки в сфере искусственного интеллекта. Сегодня США лидируют по объёму исследований и инвестиций благодаря таким гигантам, как Google, Meta, Apple и OpenAI. Китай занимает вторую позицию, динамично наращивая потенциал. США делают ставку на стимулирование ИТ-сектора и национальных приоритетов, а Европа идёт путём жёстких правил и защиты прав потребителей.
Таким образом, будущее глобального управления искусственным интеллектом остаётся неопределённым. Пока Евросоюз стремится обезопасить инновации путём детальной регламентации рисков и прозрачности, в США действует курс на максимальное снятие барьеров для бизнеса. Наблюдатели подчеркивают, что именно от баланса между безопасностью и инновационным развитием будет зависеть, какую роль ИИ сыграет в экономике и жизни общества в ближайшие годы.