Главная / Общие новости / Город / Ведущие эксперты озабочены рисками для человечества со стороны искусственного интеллекта
Ведущие эксперты озабочены рисками для человечества со стороны искусственного интеллекта

Ведущие эксперты озабочены рисками для человечества со стороны искусственного интеллекта

Эксперты в области ИИ во многих странах мира озабочены проблемами управляемости
будущих систем искусственного интеллекта, неправомерного использования
искусственного интеллекта для кибератак на критически важную инфраструктуру
и для создания биологического оружия. Эти опасения разделяют многие люди, о
чем свидетельствуют данные недавнего международного опроса, проведенного по
заказу британского Центра этики данных и инноваций в девяти странах.

В Великобритании 1 и 2 ноября 2023 года прошел первый Международный саммит
по безопасности ИИ. Ведущие эксперты инициировали публикацию открытого
письма, в котором призвали мировое сообщество и правительства стран
создать и ратифицировать международный договор о безопасности
искусственного интеллекта.

В числе специалистов, подписавших документы, были старший научный
сотрудник Google DeepMind и соучредитель Института будущего жизни
(FLI) Виктория Краковна, ведущий эксперт в области безопасности и
управления ИИ в Китае Йи Цзэн, член правления ведущей лаборатории
ИИ Anthropic Люк Мюльхаузер, известный когнитивист Гари Маркус,
обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио и другие.

Главные цели такого договора – снижение катастрофических рисков,
которые для человечества представляют системы искусственного интеллекта,
путем предотвращения бесконтрольного масштабирования возможностей ИИ и
обеспечение для всех людей доступа к благам ИИ.

Толга Бильге, британский прогнозист и студент магистратуры по математике
в Бергенском университете, подчеркнул: «Обеспечение того, чтобы ИИ был
безопасным и приносил пользу всем, является не только технической, но и
геополитической проблемой. Нам нужно, чтобы великие державы мира, включая
США и Китай, отложили в сторону свои разногласия ради человечества и
конструктивно работали над созданием надежного набора международных
правил, направленных на сосредоточение внимания на этих проблемах».

Специалисты считают необходимым включить в договор такие важные
компоненты, как всемирные ограничения на объем вычислений для обучения
какой-либо модели ИИ, совместное объединение ресурсов, опыта и знаний в
деле безопасности ИИ – «ЦЕРН» по безопасности ИИ, а также отвечающую за
мониторинг соблюдения договора комиссию по аналогии с Международным
агентством по атомной энергии (МАГАТЭ).

Ответить

Your email address will not be published.Обязательные для заполнения поля *

*

Наверх