НовиниСвіт

OpenAI може ввести ідентифікацію для доступу до майбутніх моделей ШІ

OpenAI може запровадити нову вимогу щодо верифікації організацій для отримання доступу до певних майбутніх моделей штучного інтелекту через API. Про це свідчить оновлена сторінка підтримки на офіційному сайті компанії.

Нова процедура – Verified Organization, передбачає подання дійсного посвідчення особи, виданого урядом однієї з країн, де працює API компанії. Один документ можна буде використати для перевірки лише однієї організації, і лише раз на 90 днів. При цьому OpenAI попереджає, що не всі компанії зможуть пройти верифікацію.

У компанії заявили, що прагнуть забезпечити безпечне та відповідальне використання штучного інтелекту, а нова перевірка покликана обмежити потенційно небезпечне чи зловмисне використання технології. Як зазначено на сайті, деякі розробники порушували правила використання API, що спонукало OpenAI посилити контроль за доступом до найпотужніших моделей.

Окрім безпекових міркувань, крок OpenAI може бути також спрямований на захист від крадіжки інтелектуальної власності. Раніше цього року Bloomberg повідомив, що компанія розслідує інцидент, у якому, ймовірно, група, пов’язана з китайською лабораторією DeepSeek, незаконно завантажила великі обсяги даних через API OpenAI наприкінці 2024 року — можливо, з метою використання для навчання власних моделей. Такі дії суперечать умовам використання сервісу.

Нагадаємо, що влітку 2024 року OpenAI вже заблокувала доступ до своїх продуктів у Китаї, а також регулярно публікує звіти щодо виявлення шкідливого використання своїх моделей, зокрема з боку підозрюваних хакерських угруповань, пов’язаних із Північною Кореєю.

Back to top button