От Японии до Великобритании страны хотят организовать регулирование ИИ с учетом его рисков — и, одновременно, извлекать выгоду из новых экономических возможностей, которые он открывает.
Способность генеративного искусственного интеллекта создавать контент вызвала большой ажиотаж, начиная от создания маркетинговых материалов и заканчивая переводом голосов популярных подкастов на разные языки. Но вместе с большими перспективами приходят и большие проблемы, включая — но, естественно, не ограничиваясь — масштабное распространение дезинформации, особенно с помощью глубоких подделок (дипфейк); использование произведений без указания авторства (плагиат); и массовая потеря рабочих мест из-за введения автоматизации.
Учитывая эти риски и потенциальные недостатки, правительства по всему миру пытаются создать правила в области искусственного интеллекта, которые способствовали ли бы безопасности и добросовестному использованию ИИ, и, одновременно, поощряли бы инновации.
Регулирование ИИ в США
Правительство США до сих пор позволяло технологическим компаниям разрабатывать свои собственные меры предосторожности в отношении искусственного интеллекта. Но законодатели говорят, что регулирование искусственного интеллекта все же необходимо. В 2023 году они провели множество встреч с ведущими компаниями в области искусственного интеллекта, от OpenAI до Nvidia. Законодатели обсудили требования к лицензированию и сертификации моделей ИИ.
Между тем, федеральные агентства, такие как Бюро финансовой защиты потребителей, Министерство юстиции, Комиссия по равным возможностям трудоустройства и Федеральная торговая комиссия, заявили, что многие приложения ИИ уже подпадают под действие существующих законов.
Регулирование искусственного интелекта в Великобритании
Соединенное Королевство, которое является родиной таких компаний как лаборатория искусственного интеллекта Google DeepMind и разработчик видеоприложения с искусственным интеллектом Synthesia, пытается избежать жесткого законодательства, которое может задушить инновации. Регулирование будет основываться на таких принципах, как безопасность, прозрачность, справедливость и подотчетность, сообщает Reuters.
Правительство Великобритании также хочет играть ключевую роль в регулировании искусственного интеллекта. Ожидается, что первый саммит по безопасности ИИ состоится 1 и 2 ноября.
Из заявления премьер-министра Риши Сунака:
Великобритания уже давно является родиной революционных технологий будущего.
Чтобы в полной мере использовать экстраординарные возможности искусственного интеллекта, мы должны учитывать риски и устранять их, чтобы обеспечить его безопасное развитие в последующие годы.
Страна планирует разделить ответственность за управление ИИ между существующими регулирующими органами по правам человека, охране здоровья и безопасности, а также конкуренции, вместо того чтобы создавать новый, отдельный орган, занимающийся технологией ИИ. Этот подход отличается от регулирующих органов США, которые обсуждали создание независимой структуры для надзора за лицензированием моделей ИИ с высоким уровнем риска. Ученые раскритиковали независимый регулирующий орган, заявив, что потребуется слишком много времени, чтобы создать совершенно новое агентство.
В Европейское союзе
С 2021 года ЕС, который отличается внедрением более строгих правил в сфере высоких технологий по сравнению с другими регионами, работает над принятием Закона об искусственном интеллекте, который станет первым законом об ИИ на Западе.
Закон предлагает классифицировать системы искусственного интеллекта по степени риска. Системы с более высоким уровнем риска, включая инструменты найма с использованием искусственного интеллекта и программное обеспечение для оценки результатов экзаменов, столкнутся с более строгими стандартами, такими как проверка данных и их документация, по сравнению с системами с более низким уровнем риска. Предлагаемые правила также запрещают навязывание или дискриминационное использование искусственного интеллекта.
В прошлом месяце член комитета Европейской комиссии Тьерри Бретон заявил, что ЕС разрабатывает Соглашение об ИИ, которое поможет компаниям подготовиться к внедрению Закона об ИИ, и что стартапы — не только крупные технологические компании — должны быть включены в дискуссию по развитию управления ИИ. Некоторые стартапы в прошлом заявляли, что предлагаемое ЕС регулирование является слишком ограничительным и граничит с запретительным.
Регулирование ИИ в Китае
В Китае поставщики генеративного искусственного интеллекта должны пройти оценку безопасности, а инструменты искусственного интеллекта должны соответствовать социалистическим ценностям. Но технологии ИИ нового поколения, разработанные только для использования за пределами страны, не подпадают под действие правил (подробнее см. Китай смягчает правила для искусственного интеллекта). Китайские технологические компании, такие как Baidu, Tencent и Huawei, давно уже имеют центры исследований и разработок в Кремниевой долине.
Чтобы составить конкуренцию OpenAI ChatGPT, крупнейшие интернет—компании страны — Alibaba, Baidu и JD — анонсировали своих собственных чат-ботов с искусственным интеллектом. В прошлом Китай заявлял, что хочет стать мировым лидером в области искусственного интеллекта к 2030 году, и изложил планы по коммерциализации ИИ в ряде областей — от умных городов до военного применения.
В Японии
Япония склоняется к более мягким правилам, регулирующим использование искусственного интеллекта. На этой неделе премьер-министр Фумио Кисида рассказал, что согласовывается отдельный экономический пакет, который будет включать средства на развитие искусственного интеллекта в малых и средних компаниях, что может помочь укрепить утраченное Японией лидерство в области технологий.
Япония также заявила, что использование защищенных авторским правом изображений для обучения моделей искусственного интеллекта не нарушает законы об авторском праве, а это означает, что поставщики генеративного искусственного интеллекта могут использовать защищенные авторским правом работы, не получая разрешения владельцев изображений.
Из заявления представителей Палаты представителей от Конституционно-демократической партии Японии:
В Японии [результаты] анализа информации могут использоваться независимо от метода [получения]… их можно использовать некоммерческих целях, в целях получения прибыли, для действий, отличных от воспроизведения, или для создания контента.
Тем не менее, представитель японских властей признал, что использование изображения против воли правообладателя проблематично с точки зрения защиты прав, и предположил необходимость разработки “новых правил для защиты правообладателей”.
В Бразилии
Законодатели Бразилии приступили к разработке правил для искусственного интеллекта, которые включают требование к поставщикам систем ИИ представлять оценку рисков перед внедрением продукта в общее пользование.
Независимо от степени риска систем искусственного интеллекта, регулирующие органы заявляют, что люди, затронутые этими системами, имеют право на объяснение принятого ИИ решения в течение 15 дней с момента запроса. Другими словами, если ваше изображение было «обробатоно» роботом, вы должны будете получить об этом уведомление, а в случае вашего запроса — еще и обоснование.
Однако, эксперты из академических кругов утверждают, что иногда очень трудно объяснить, почему система искусственного интеллекта выбрала ту или иную фотографию, текст или изображение.
В Израиле
Страна, которая ведет постоянные переговоры как с израильскими, так и с американскими технологическими компаниями, предложила регулирование, которое фокусируется на “ответственных инновациях”, защищающих общественность, а также продвигающих израильскую высокотехнологичную промышленность.
Правительство крайне туманно заявило, что политика в области искусственного интеллекта будет включать использование “мягких” инструментов регулирования для управления ИИ и принятие этических принципов, аналогичных тем, которые приемлемы во всем мире. Ожидается, что регулирование вступит в силу “в ближайшие годы”.
Регулирование ИИ в России
В России сами системы распознавания лиц и другие ИИ-решения пока не регулируются, но действует Закон о защите персональных данных. Помимо этого, некоторые правила и ограничения для этой сферы внедряются в рамках нацпроекта «Цифровая экономика». Действующая с 2019 года Национальная стратегия развития искусственного интеллекта предусматривает специальные правовые режимы для тестирования инновационных технологий.
Также в Правительстве РФ была разработана Концепция регулирования технологий ИИ и робототехники РФ, состоящая из 5 смысловых блоков:
Позитивные новости по теме:
Где сейчас применяют чат ChatGPT
Использованы материалы:
http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm
https://www.cnbc.com/2017/07/21/china-ai-world-leader-by-2030.html
https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai
https://www.reuters.com/world/uk/britain-opts-adaptable-ai-rules-with-no-single-regulator-2023-03-28/
https://economy.gov.ru/material/news/pravitelstvo_utverdilo_koncepciyu_regulirovaniya_tehnologiy_ii_i_robototehniki.html
3 комментария для “В мире усиливается регулирование ИИ”