Штучний інтелект (ШІ) може помилятися. Так, нещодавно чат-бот стверджував, що Башар аль-Асад все ще є президентом Сирії попри те, що на той момент Ахмед аль-Шараа вже давно був главою перехідного уряду.
Помилка виправлена лише після запиту
Співробітниця tuenews Оула Махфуз вказала чат-боту на його помилку. Але він наполягав на своїй неправдивій інформації. Лише після виразного запиту він виправив свою помилку і надав актуальну інформацію.
До 40 відсотків є вигаданими
Цей приклад не є поодиноким. Про це свідчить дослідження Європейської радіомовної спілки (EBU). EBU — це об’єднання 68 громадських мовників у 56 країнах. Воно стверджує, що, попри вдосконалення, чат-боти все ще є ненадійними. У своєму дослідженні EBU виявило, що чат-боти вигадують до 40 відсотків своїх відповідей і подають їх як факти. Проте все більше людей у всьому світі довіряють їм і вірять у фейкові новини.
ШІ часто використовує застарілі дані
За даними «Tagesschau», є кілька причин таких помилок. ШІ використовує застарілі дані, на яких він був навчений. Іноді він також вигадує джерела, яких не існує. Або пов’язує факти, які не мають між собою нічого спільного чи які взагалі не відповідають дійсності.
Використовуйте більше ніж одне джерело
За даними «Tagesschau», головною проблемою для недосвідчених користувачів є те, що ШІ не використовує автоматично актуальну інформацію. Це відбувається лише тоді, коли користувачі чітко вказують це в запиті. Тому експерти радять завжди звертатися до кількох джерел. Це правило застосовується загалом – не лише до чат-ботів.
Дослідження EBU:
https://www.ebu.ch/Report/MIS-BBC/NI_AI_2025.pdf
Див.:
https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html
tun25110201

