
Поширити
Штучний інтелект ChatGPT знов опинився в епіцентрі уваги, після того, як користувачі зауважили дивну діяльність мовної моделі. Компанія OpenAI вже опублікувала офіційну заяву з цього приводу.
Ключові тези:
- ChatGPT почав згадувати “гоблінів” на 175% частіше, ніж раніше, а “гремлінів” – на 52%.
- Команда OpenAI визнала свою вину у тому, що відбувається.
Що знову не так з ChatGPT?
У користувачів виникає чимало питань під час використання мовних моделей серії GPT-5.
Основна проблема полягає в тому, що у розмовах вони все частіше почали застосовувати метафори з "гоблінами", "гремлінами" та іншими міфічними персонажами.
На цьому тлі користувачі почали нарікати на надмірну "неофіційність" відповідей чатбота.
Команда OpenAI вкінці-кінців вирішила роз’яснити, що насправді відбулося.
За словами представників компанії, головною причиною подібної поведінки бота став алгоритм навчання моделей під конкретні типи "особистостей", які користувачі потім могли вибирати для взаємодії з ChatGPT.
Особливо сильно проблема виявилася у бота з типом особистості Nerdy (сленговий "заучка"). Хоча на особистість Nerdy припадало лише 2,5% відповідей ChatGPT, саме ця версія виявилася відповідальною за 66,7% усіх згадок гоблінів.
Поширити
Як стверджують розробники, коли тренували версію Nerdy під специфічну "ботанську" манеру спілкування, їй ненавмисно встановили особливо високий пріоритет використання "метафор з істотами".
Звідти розповсюдились гобліни, — офіційно підтвердила компанія OpenAI.
Поширити