DataLife Engine > Экономика / Главная > Каждое федеральное агентство США должно нанять директора по ИИ

Каждое федеральное агентство США должно нанять директора по ИИ

директор по ИИ

Правительство США предпринимает серьезные шаги для обеспечения безопасного и ответственного использования технологий искусственного интеллекта (ИИ) в государственном секторе. В свете растущего применения ИИ в различных областях деятельности федеральных ведомств, администрация Байдена ввела новые правила и требования, направленные на усиление контроля и управления системами ИИ.

Назначение старших руководителей по ИИ


Согласно новому руководству, объявленному вице-президентом Камалой Харрис, все федеральные агентства США теперь обязаны назначить старшего руководителя, ответственного за надзор и координацию всех систем искусственного интеллекта, используемых ведомством. Эти руководители, называемые главными специалистами по искусственному интеллекту (Chief AI Officers, CAIO), должны обладать соответствующим опытом, знаниями и полномочиями для эффективного мониторинга внедрения и использования технологий ИИ в рамках своих организаций.

Цель назначения CAIO заключается в обеспечении ответственного применения ИИ в государственном секторе и снижении потенциальных рисков, связанных с этими передовыми технологиями. Администрация Байдена считает, что наличие высокопоставленных должностных лиц, специально отвечающих за ИИ, позволит осуществлять более тщательный контроль и управление в этой области.

Создание советов по управлению ИИ


Помимо назначения CAIO, федеральные агентства должны создать советы по управлению искусственным интеллектом. Эти комитеты будут координировать использование ИИ в пределах ведомства и обеспечивать соблюдение установленных правил и стандартов.

Обязательная отчетность и оценка рисков


В соответствии с новыми указаниями, федеральные агентства обязаны ежегодно представлять в Административно-бюджетное управление (OMB) отчеты, перечисляющие все используемые ими системы ИИ, любые связанные с ними риски и планы по снижению этих рисков.

Ведомства также должны будут проводить независимую оценку рисков безопасности для каждой используемой ими платформы ИИ. Если какие-либо системы ИИ считаются слишком «чувствительными», чтобы включить их в публичный список, агентство должно обосновать причины их исключения.

Обеспечение справедливости и прозрачности


Одной из ключевых задач, стоящих перед CAIO и советами по управлению ИИ, является обеспечение того, чтобы внедряемые системы ИИ соответствовали гарантиям, снижающим риски алгоритмической дискриминации и обеспечивающим прозрачность использования ИИ правительством для общественности.

Наращивание потенциала в области ИИ


В дополнение к новым правилам и требованиям, правительство США планирует нанять 100 специалистов по искусственному интеллекту к лету 2023 года. Это позволит федеральным ведомствам укрепить свой кадровый потенциал в области ИИ и обеспечить более эффективное внедрение и управление соответствующими технологиями.

Некоторые агентства, такие как Министерство юстиции, уже начали назначать CAIO и формировать специализированные команды экспертов по ИИ для определения возможностей и рисков использования этих технологий в их сферах деятельности.

Подытожим


Принятые меры демонстрируют серьезность намерений правительства США в обеспечении безопасности и ответственности при использовании искусственного интеллекта в государственном секторе. Назначение старших руководителей по ИИ, создание управляющих советов, обязательная отчетность и оценка рисков, а также наращивание кадрового потенциала в области ИИ – все эти шаги направлены на то, чтобы извлечь максимальную пользу из передовых технологий ИИ при одновременном снижении связанных с ними рисков.

Соблюдение новых правил и тщательный контроль со стороны федеральных агентств имеют решающее значение для обеспечения доверия общественности и создания надежной нормативной базы для безопасного и этичного внедрения искусственного интеллекта в государственном секторе.



Вернуться назад