12. دسامبر 2025

هوش مصنوعی اغلب پاسخ‌های اشتباه می‌دهد

هوش مصنوعی  (AI)میتواند دروغ بگوید. اخیراً یک چت‌بات ادعا کرد که بشار اسد هنوز رئیس جمهور سوریه است. این چت‌بات دچار توهم شده بود. در آن زمان، احمد الشرع رئیس دولت انتقالی بود

خطا فقط بنا به درخواست اصلاح شد
اولا محفوظ، عضو کارکنان تونیوز از این خطا آگاه بود. او آن را به چت‌بات گوشزد کرد. اما چت‌بات همچنان به اطلاعات غلط خود ادامه داد. تنها پس از درخواست صریح، اشتباه خود را اصلاح کرد و اطلاعات به‌روز ارائه داد

تا ۴۰درصد ساختگی هستند
این مثال یک مورد منحصر به فرد نیست. این موضوع توسط یک مطالعه از اتحادیه پخش اروپا  (EBU)نشان داده شده است .EBU انجمنی متشکل از ۶۸ پخش‌کننده عمومی در ۵۶ کشور است. این اتحادیه می‌گوید که با وجود پیشرفت‌ها، چت‌بات‌ها هنوز غیرقابل اعتماد هستند. EBU در مطالعه خود دریافت که چت‌بات‌ها تا ۴۰ درصد از پیام‌های خود را جعل می‌کنند و آنها را به عنوان واقعیت ارائه می‌دهند. با این وجود، تعداد فزاینده‌ای از مردم در سراسر جهان به آنها اعتماد می‌کنند و اخبار جعلی را باور می‌کنند

هوش مصنوعی اغلب از داده‌های قدیمی استفاده می‌کند
طبق برنامه خبری آلمانی “Tagesschau”، دلایل متعددی برای این خطاها وجود دارد. هوش مصنوعی از داده‌های قدیمی که با آنها آموزش دیده است استفاده می‌کند. یا توهم می‌زند و عبارات به ظاهر قابل اعتماد را برای تشکیل اظهارات کنار هم قرار می‌دهد – حتی زمانی که حقایق نادرست هستند. گاهی اوقات نیز منابعی را اختراع می‌کند که وجود ندارند. یا حقایقی را که به هم تعلق ندارند، به هم پیوند می‌دهد

استفاده از بیش از یک منبع
یک مشکل خاص برای کاربران بی‌تجربه: طبق گفته “Tagesschau”، هوش مصنوعی به طور خودکار از اطلاعات فعلی استفاده نمی‌کند. این اتفاق فقط در صورتی می‌افتد که کاربران به صراحت آن را در قسمت ورودی مشخص کنند. بنابراین کارشناسان توصیه می‌کنند که همیشه با بیش از یک منبع مشورت کنید. این قانون به طور کلی اعمال می‌شود – نه فقط برای چت‌بات‌ها
در مورد مطالعه EBU
https://www.ebu.ch/Report/MIS-BBC/NI_AI_2025.pdf
ببینید
https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html

‏tun25110201

www.tuenews.de/fa