НовиниСвіт

CEO Anthropic оголосив план розкрити внутрішню роботу моделей ШІ до 2027 року

Генеральний директор Anthropic Даріо Амодей оголосив про амбітну ціль компанії — до 2027 року навчитися надійно виявляти більшість проблем у роботі моделей штучного інтелекту. Про це він написав у есе «The Urgency of Interpretability», опублікованому у четвер.

Агодей зазначає, що сьогодні дослідники мають обмежене розуміння механізмів прийняття рішень сучасними моделями ШІ. Попри певні успіхи, зокрема в дослідженні “механістичної інтерпретованості”, для повноцінного розуміння цих систем потрібно значно більше досліджень.

«Я дуже стурбований розгортанням таких систем без кращого контролю над їх інтерпретацією», — написав Амодей. За його словами, штучний інтелект стане центральною технологією для економіки, національної безпеки та технологій, і надмірна автономність моделей без розуміння їхньої роботи є неприпустимою.

Anthropic займає провідні позиції у сфері інтерпретованості моделей ШІ. Компанія здійснила кілька проривів, наприклад, виявивши так звані “схеми” (circuits) у нейронних мережах, які допомагають моделі розуміти географічні зв’язки між містами та штатами США. Однак Anthropic оцінює, що таких схем у великих моделях можуть бути мільйони.

У своїй заяві Амодей також вказав на проблему неконтрольованого розвитку штучного інтелекту, порівнявши можливу появу AGI (Artificial General Intelligence) із «країною геніїв у дата-центрі», яку людство не розуміє. Він закликав інші компанії, зокрема OpenAI та Google DeepMind, активніше вкладати ресурси в дослідження інтерпретованості, а уряди — запроваджувати легкі регуляторні вимоги, що стимулюють безпекові дослідження.

Back to top button