2023 Подход Японии к регулированию искусственного интеллекта и его влияние на председательство в G7 в 2023 году/Japan’s Approach to AI Regulation and Its Impact on the 2023 G7 Presidency, CSIS
Japan’s Approach to AI Regulation and Its Impact on the 2023 G7 Presidency
15.09.2023
CSIS
Перейти к источнику
В этой статье анализируются ключевые тенденции в регулировании ИИ в Японии и обсуждается, какие аргументы могут быть выдвинуты на саммите G7 в 2023 году.
- В 2019 году правительство Японии опубликовало «Социальные принципы человекоцентричного ИИ» как принципы внедрения ИИ в общество. Социальные принципы устанавливают три основные философии: человеческое достоинство, разнообразие и инклюзивность, а также устойчивость. Важно отметить, что цель Социальных принципов состоит не в том, чтобы ограничить использование ИИ для защиты этих принципов, а в том, чтобы реализовать их с помощью ИИ.
- В Японии нет правил, которые в целом ограничивают использование ИИ. Согласно отчету «Управление ИИ в Японии версии 1.1», опубликованному Министерством экономики, торговли и промышленности (METI) в июле 2021 года, в котором всесторонне описывается политика регулирования ИИ в Японии (Отчет об управлении ИИ), такие «юридически обязательные горизонтальные требования к системам ИИ в настоящее время считаются ненужными». Это связано с тем, что нормативные акты сталкиваются с трудностями, чтобы идти в ногу со скоростью и сложностью инноваций в области ИИ.
-
Глядя на отраслевые нормативные акты, ни одно из них не запрещает использование ИИ как такового, а скорее требует от предприятий принятия соответствующих мер и раскрытия информации о рисках. Например, Закон о прозрачности цифровых платформ предъявляет требования к крупным онлайн-торговым центрам, магазинам приложений и компаниям, занимающимся цифровой рекламой, для обеспечения прозрачности и справедливости в сделках с бизнес-пользователями, включая раскрытие ключевых факторов, определяющих их поисковый рейтинг.
-
Говоря о подходах других стран G7, можно выделить ряд вопросов, которые они могут решить, включают: Как они могут объяснить точную логику алгоритмов простым языком? Как они будут оценивать риски, которые не поддаются количественной оценке? Какие технические методы доступны для обеспечения справедливости, безопасности или конфиденциальности? Как будут разработаны механизмы восстановления и конечное бремя ответственности в случае аварии?