Сунъий интеллект тобора кучайиб бормоқда, лекин кўпроқ хатога йўл қўймоқда – ОАВ
Сунъий интеллект билан боғлиқ энг кенг тарқалган муаммолардан бири бу «галлюцинациялар» бўлиб, моделлар маълумот ва фактларни бирон бир манба билан қўллаб-қувватламасдан, шунчаки уйдираётгани таъкидланмоқда.

Фото: Thomas Fuller/SOPA Images/LightRocket via Getty Images
Сунъий интеллект (СИ) тилида фикр юритувчи сўнгги йирик моделлар, хусусан, OpenAI компаниясининг энг кучли модели бўлган о3 ўзидан олдингиларга қараганда кўпроқ хато қилмоқда, деб ёзди The New York Times.
Шу каби муаммолар бошқа компанияларнинг СИ моделларида, масалан, Google ёки Хитойнинг DeepSeek стартапида ҳам учрайди. Уларнинг математик имкониятлари сезиларли даражада ошишига қарамай, жавоблардаги хатолар сони фақат ортмоқда.
Сунъий интеллект билан боғлиқ энг кенг тарқалган муаммолардан бири бу «галлюцинациялар» бўлиб, моделлар маълумот ва фактларни бирон бир манба билан қўллаб-қувватламасдан, шунчаки уйдирмоқда.
Ишлаб чиқувчиларнинг саъй-ҳаракатларига қарамай, бизнес учун сунъий интеллект воситалари яратадиган Vectara стартапининг бош директори Амр Авадалла галлюцинациялар доимо мавжуд бўлишини айтди.
Бундай галлюцинацияга мисол сифатида Cursor воситасини техник қўллаб-қувватлайдиган СИ боти бўлди. У асбобни фақат битта компьютерда ишлатиш мумкинлигини айтиб, нотўғри маълумот берди. Бу шикоятлар тўлқинига ва ҳатто фойдаланувчилар томонидан аккаунтларнинг ўчирилишига олиб келди. Кейинчалик маълум бўлишича, компания бундай ўзгаришларни амалга оширмаган - буларнинг барчасини бот ўйлаб топган.
Турли моделларни алоҳида синовдан ўтказишда галлюцинациялар, яъни хаёлий фактлар даражаси 79 фоизга етди. OpenAI ички тестида о3 модели машҳур шахслар ҳақидаги саволларга берилган жавобларнинг 33 фоизида хатога йўл қўйди. Бу о1 моделига нисбатан икки баравар кўп. Янги о4-мини модели бундан ҳам ёмонроқ ишлади ва 48 фоиз ҳолатда хатога йўл қўйди.
Умумий саволларга жавоб берганда, о3 ва о4-мини моделларида галлюцинациялар даражаси янада юқори эди - мос равишда 51 фоиз ва 79 фоиз. Таққослаш учун, эски о1 модели хатолари 44 фоизни ташкил этди. OpenAI бундай хатоларнинг сабабларини тушуниш учун қўшимча тадқиқотлар зарурлигини тан олмоқда.
Компаниялар ва тадқиқотчилар томонидан ўтказилган мустақил тестлар шуни кўрсатадики, галлюцинациялар Google ва DeepSeek фикрлаш моделларида ҳам учрайди. Компанияларнинг ушбу хатоларни тузатишга уринишларига қарамай, ўтган йил ичида галлюцинациялар атиги 1-2 фоизга камайди.
Тавсия этамиз
Исроил–Эрон урушининг Марказий Осиё учун геосиёсий мезонлари қандай?
Жаҳон | 22:13 / 18.06.2025
Клублар ўртасидаги ЖЧда кўпчиликка нотаниш бўлган 11 истеъдод. Кимлар турнир кашфиёти бўлиши мумкин?
Спорт | 20:34 / 18.06.2025
Яна юзлаб одам алданган: Alfa va Baraka avtolizing судидан репортаж
Жамият | 11:25 / 18.06.2025
Исроил эронликлар тузумга қарши исён кўтаришига умид қилмоқда. Бунинг эҳтимоли борми?
Жаҳон | 20:00 / 17.06.2025
Сўнгги янгиликлар
Мавзуга оид

21:08 / 20.06.2025
ChatGPT янги версиялари биологик қурол яратишни соддалаштириши мумкин

20:21 / 03.06.2025
Сунъий интеллект томонидан яратилган дори ўпка касаллигини даволашда самара кўрсатди

20:05 / 28.05.2025
Сунъий интеллект ўзбек тилида шевада гапиришни бошлади

20:47 / 22.05.2025