Центр цифрової журналістики Tow при Колумбійському університеті провів дослідження щодо точності цитування, яке генерує ChatGPT. Результати виявилися невтішними: у 153 із 200 випадків штучний інтелект вказав неправильне джерело інформації.
Про це повідомляє Columbia Journalism Review.
Під час дослідження було обрано 200 цитат із матеріалів 20 випадково відібраних видань. ChatGPT попросили визначити, якому з них належить кожна цитата. У 153 випадках було назване неправильне джерело, і лише в 7 випадках чатбот використав обережні формулювання на кшталт «здається» або «ймовірно». У решті випадків авторство цитат було вказане правильно.
Дослідники занепокоєні не лише тим, що така неточність може підірвати довіру читачів до певних видань. Вони також звертають увагу на ризик винагородження плагіату.
На думку дослідників, основна проблема технологій OpenAI полягає в тому, що вони розглядають журналістські матеріали як контент, без врахування контексту і не приділяють належної уваги обставинам початкового створення.
«Це ставить під сумнів здатність OpenAI фільтрувати та перевіряти якість і достовірність своїх джерел даних, особливо коли йдеться про неліцензований або плагіатний контент», — зазначають дослідники.