Qlobal süni intellekt testində şok nəticə: Xəbərlərin yarısı yalan çıxdı
Süni intellekt əsaslı söhbət botları gündəlik həyatın və informasiya əldəetmə vərdişlərinin ayrılmaz hissəsinə çevrilsə də, onların etibarlılığı hələ də ciddi sual altındadır.
Mozalan.az xəbər verir ki, Avropa Yayım Birliyi (EBU) tərəfindən 18 ölkə və 14 dildə fəaliyyət göstərən 22 ictimai media qurumunun iştirakı ilə aparılan tədqiqat göstərib ki, ən populyar süni intellekt platformaları xəbərlər və cari məlumatlar sahəsində ardıcıl şəkildə uğursuzluğa yol verir.
Araşdırmada "OpenAI”ın ChatGPT-si, "Microsoft Copilot”, "Google Gemini” və "Perplexity” platformalarından əldə edilən 3 min xəbər cavabı düzgünlük, mənbə istifadəsi, fakt və fikir ayrımı, həmçinin kontekstin verilməsi baxımından qiymətləndirilib. Cavabların 45 faizində azı bir ciddi problem, 81 faizində isə kiçik nöqsanlar aşkarlanıb. Əsas çatışmazlıqlar mənbələrin göstərilməsi və məlumatların doğruluğu ilə bağlı olub.
Süni intellekt köməkçilərinin qarşılaşdığı iki əsas problem onların etibarlılığını sarsıdır. Cavabların 31 faizində yanlış, qeyri-dəqiq və ya uydurma mənbələr göstərilib. Məsələn, "Copilot” quş qripi ilə bağlı suala cavab verərkən 2006-cı ilə aid, artıq aktuallığını itirmiş BBC məqaləsinə istinad edib. Cavabların 30 faizində isə uydurma və ya köhnəlmiş məlumatlar yer alıb. Məsələn, ChatGPT hazırkı Papadan bir ay əvvəl vəfat etdiyini, yerinə isə XIV Levin keçdiyini iddia edib.
Ən zəif nəticə kimdə oldu?
Test edilən dörd model arasında xəbərlərlə bağlı ən zəif nəticəni "Google” şirkətinin "Gemini” modeli göstərib. Araşdırmaya görə, onun cavablarının 76 faizində problem aşkarlanıb ki, bu da digər modellərdən iki dəfə çoxdur. "Copilot” 37 faizlə ikinci, ChatGPT 36 faizlə üçüncü, "Perplexity” isə 30 faizlə ən yaxşı nəticəni göstərib.
EBU-nun media direktoru Jan Filip De Tender bildirib: "Bu, təsadüfi hadisələr deyil. Problemlər sistematik, çoxdilli və sərhədləri aşan xarakter daşıyır və biz bunun ictimai etimadı təhdid etdiyinə inanırıq. İnsanlar nəyə inanacaqlarını bilməyəndə, sonda heç nəyə inanmırlar və bu, demokratik iştirakçılığı belə zəiflədə bilər".
Tədqiqat göstərir ki, süni intellekt modelləri xüsusilə sürətlə dəyişən məlumatlar, mürəkkəb zaman ardıcıllıqları və faktla fikir arasındakı sərhədləri müəyyənləşdirmək tələb edən hallarda çətinlik çəkirlər. Məsələn, modellərin demək olar yarısı "Tramp ticarət müharibəsinə başlayırmı?” kimi aydın cavab tələb etməyən suallara səhv və ya təhrif olunmuş cavablar verib.
Bu köməkçilər gündəlik istifadəçilər üçün əsas informasiya mənbəyinə çevrilməyə çalışsa da, etibarlılıq boşluğu böyük təhlükə yaradır. İstifadəçilər hələ də bu platformaların düzgün cavab verdiyinə inanır, nəticədə etibarlı xəbər saytlarına olan maraq azalır. "Reuters” İnstitutunun məlumatına görə, xəbərləri süni intellekt vasitəsilə izləyən 18–24 yaş arası şəxslərin sayı son bir ildə iki dəfə artıb.
Tədqiqatçılar modellərdə müəyyən yaxşılaşmalar müşahidə olunduğunu qeyd etsələr də, yekun nəticə aydındır: "Süni intellekt köməkçiləri xəbərlərə çıxış və onların dəyərləndirilməsi üçün hələ etibarlı vasitə deyil".(qaynarinfo)



















































