Эксперты в области ИИ во многих странах мира озабочены проблемами управляемости
будущих систем искусственного интеллекта, неправомерного использования
искусственного интеллекта для кибератак на критически важную инфраструктуру
и для создания биологического оружия. Эти опасения разделяют многие люди, о
чем свидетельствуют данные недавнего международного опроса, проведенного по
заказу британского Центра этики данных и инноваций в девяти странах.
В Великобритании 1 и 2 ноября 2023 года прошел первый Международный саммит
по безопасности ИИ. Ведущие эксперты инициировали публикацию открытого
письма, в котором призвали мировое сообщество и правительства стран
создать и ратифицировать международный договор о безопасности
искусственного интеллекта.
В числе специалистов, подписавших документы, были старший научный
сотрудник Google DeepMind и соучредитель Института будущего жизни
(FLI) Виктория Краковна, ведущий эксперт в области безопасности и
управления ИИ в Китае Йи Цзэн, член правления ведущей лаборатории
ИИ Anthropic Люк Мюльхаузер, известный когнитивист Гари Маркус,
обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио и другие.
Главные цели такого договора – снижение катастрофических рисков,
которые для человечества представляют системы искусственного интеллекта,
путем предотвращения бесконтрольного масштабирования возможностей ИИ и
обеспечение для всех людей доступа к благам ИИ.
Толга Бильге, британский прогнозист и студент магистратуры по математике
в Бергенском университете, подчеркнул: «Обеспечение того, чтобы ИИ был
безопасным и приносил пользу всем, является не только технической, но и
геополитической проблемой. Нам нужно, чтобы великие державы мира, включая
США и Китай, отложили в сторону свои разногласия ради человечества и
конструктивно работали над созданием надежного набора международных
правил, направленных на сосредоточение внимания на этих проблемах».
Специалисты считают необходимым включить в договор такие важные
компоненты, как всемирные ограничения на объем вычислений для обучения
какой-либо модели ИИ, совместное объединение ресурсов, опыта и знаний в
деле безопасности ИИ – «ЦЕРН» по безопасности ИИ, а также отвечающую за
мониторинг соблюдения договора комиссию по аналогии с Международным
агентством по атомной энергии (МАГАТЭ).