Штучний інтелект “дурнішає” через взаємодію з людьми.

Поширити Джерело:  online.ua

В рамках великого дослідження Microsoft Research і Salesforce було з’ясовано, що популярні чат-боти ШІ стають “менш розумними” після тривалого контакту з людьми. Важливо відзначити, що загальний рівень неточностей чат-ботів може збільшитися більше ніж на 100% при розгляді понад 200 тисяч розмов.

Ключові положення:

  • Жодна з моделей ШІ ще не готова до тривалого природного спілкування з людьми.
  • Не слід розглядати ШІ як джерело абсолютної та надзвичайно важливої інформації.

Взаємодія ШІ та людей викликала непередбачувані наслідки

На даний момент великі мовні моделі перебувають на вершині своєї популярності — їхніми послугами користуються сотні мільйонів користувачів у різних частинах світу.

Однак юзери все частіше зіштовхуються з “галюцинаціями” та невірними відповідями під час взаємодії з чат-ботами.

Завдяки дослідженню Microsoft та Salesforce нарешті стало можливо дізнатися, що насправді відбувається з відомими ШІ, пише windowscentral.

Як з’ясувалося, навіть найкращі нейромережі іноді “заплутуються” під час бесіди, коли завдання ділиться на природний людський діалог з декількох реплік.

Експерти вирішили проаналізувати понад 200 000 таких діалогів з участю GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet та DeepSeek R1.

Так, стало відомо, що в рамках роботи з окремими запитами зазначені моделі показують більше 90% вдалих відповідей.

Проте під час розлогих бесід з уточненнями та додатковими питаннями показник знижується до 65%.

Різке зменшення якості в довгих бесідах не говорить про те, що моделі “стають тупішими” в прямому сенсі — скоріше, це вказує на їх обмежені можливості в утриманні та точній інтерпретації великого обсягу інформації в процесі діалогу.

Поширити

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *