Организация Anthropic отметила потенциальные риски систем ИИ и призвала к четкому регулированию, чтобы избежать возможных катастроф. Они утверждают, что целенаправленное регулирование необходимо для того, чтобы использовать преимущества ИИ, одновременно минимизируя его опасности.
Риски и вызовы
С развитием ИИ в таких областях, как математика, логическое мышление и программирование, возрастает вероятность его неправильного использования в таких сферах, как кибербезопасность, а также в биологических и химических дисциплинах.
Anthropic предупреждает, что ближайшие 18 месяцев критически важны для законодателей, так как окно для проактивных мер сужается. Особенно стоит отметить, что команда Frontier Red Team проекта уже показывает, как текущие модели могут использоваться для различных кибератак и ожидает, что будущие модели будут еще более эффективными.
Особую тревогу вызывает возможность использования систем ИИ в области химической, биологической, радиологической и ядерной безопасности. Исследования Института безопасности ИИ Великобритании показали, что несколько моделей ИИ уже могут сопоставляться по уровню с экспертами с докторской степенью в ответах на научные вопросы.
Политика ответственного масштабирования
Для решения этих рисков Anthropic разработала Политику ответственного масштабирования (RSP), опубликованную в сентябре 2023 года, как надежную противодействующую меру. RSP требует повышения мер безопасности в зависимости от уровня сложности возможностей ИИ.
Структура RSP адаптивна и итеративна, с регулярной оценкой моделей ИИ, что позволяет своевременно уточнять протоколы безопасности. Anthropic заявляет о своей приверженности поддержанию и улучшению безопасности через расширение команд, особенно в областях безопасности, интерпретируемости и доверия.
Необходимость регулирования
Anthropic считает, что широкое принятие RSP в индустрии ИИ, хотя и в основном добровольное, необходимо для решения рисков, связанных с ИИ. Прозрачное и эффективное регулирование крайне важно для обеспечения общества в том, что компании ИИ выполняют свои обещания по безопасности.
Тем не менее, нормативные рамки должны быть стратегическими, поощряя правильные практики безопасности без наложения излишних бремен.
Anthropic видит регулирование как четкое, целенаправленное и адаптивное к изменяющимся технологическим реалиям, утверждая, что это жизненно важно для достижения баланса между уменьшением рисков и поддержкой инноваций.
В США Anthropic предполагает, что федеральное законодательство может быть окончательным ответом на регулирование рисков ИИ, хотя инициативы на уровне штатов могут потребоваться, если федеральные действия будут запаздывать. Законодательные рамки, разработанные различными странами, должны позволять стандартизацию и взаимное признание для поддержки глобальной повестки безопасности ИИ, минимизируя затраты на соблюдение норм в разных регионах.
Кроме того, Anthropic обсуждает скептицизм по поводу введения регулирования, подчеркивая, что слишком широкие регуляции, ориентированные на конкретные случаи, будут неэффективны для общих систем ИИ, имеющих разнообразные применения. Вместо этого регулирование должно сосредоточиться на основных свойствах и мерах безопасности моделей ИИ.
Хотя Anthropic охватывает широкий спектр рисков, они признают, что некоторые непосредственные угрозы – такие как дипфейки – не являются предметом их текущих предложений, так как другие инициативы занимаются этими более актуальными вопросами.
Устойчивое регулирование и инновации
В конечном итоге Anthropic подчеркивает важность внедрения таких регуляций, которые способствуют инновациям, а не подавляют их. Первоначальная нагрузка по соблюдению норм, хотя и неизбежна, может быть минимизирована с помощью гибких и тщательно разработанных тестов безопасности.
Правильное регулирование может даже помочь защитить как национальные интересы, так и инновации частного сектора, обеспечивая защиту интеллектуальной собственности от внутренних и внешних угроз.
Сосредоточившись на эмпирически измеренных рисках, Anthropic планирует создать регуляторную среду, которая не будет предвзята ни в отношении открытых, ни закрытых моделей. Цель остается ясной: управлять значительными рисками передовых моделей ИИ с помощью строгого, но адаптивного регулирования.
Если вам нужны советы по внедрению ИИ, пишите нам на https://t.me/itinai.
Попробуйте внедрить “Аи Хэлп” https://aihlp.ru/. Это AI ассистенты для бизнеса, которые помогают отвечать на вопросы клиентов и снижать нагрузку на первую линию поддержки пользователей.