Сунъий идрок тадқиқот натижаларини одамлардан яхшироқ башорат қилмоқда
Яқин келажакда олимлар бирор тажриба ўтказишдан олдин сунъий идрок ёрдамида ишни самарали режалаштириш имконига эга бўлиши кутилмоқда.

Фото: AFP
ChatGPT каби машҳур генератив сунъий идрок тизимларининг асосини ташкил этувчи “катта тил моделлари” (LLM) улкан ҳажмдаги маълумотлардан билимларни умумлаштириш ва ажратиб олиш қобилияти билан танилган. Аммо уларнинг имкониятлари маълумот олишдан анча кенгроқ бўлиб чиқди. Лондон Университет коллежидан доктори Кен Луо бошчилигида олиб борилган янги тадқиқотга кўра, бу моделлар маълумотларни синтез қилиш ва келажакда ўтказиладиган тажриба натижаларини олдиндан айтиб беришга қобилиятига эга.
“Илмий тараққиёт кўпинча синов ва хатоларга боғлиқ бўлади, бу эса сезиларли даражада вақт ва ресурс сарфлашни тақозо этади. Ҳатто тажрибали олимлар ҳам муҳим қонуниятларни эътибордан четда қолдириши мумкин. Бизнинг тадқиқотимиз шуни кўрсатмоқдаки, LLM бу каби қонуниятларни аниқлашга ва тажриба натижаларини юқори аниқлик билан башорат қилишга қодир”, — деди доктор Луо.
Тил моделларининг имкониятларини текшириш мақсадида мутахассислар BrainBench номли воситани ишлаб чиқди. У нейрофан соҳасидаги илмий мақолаларга оид бир жуфт аннотацияни ўз ичига олган. Улардан бирида тадқиқотларнинг тўғри натижалари акс эттирилган, иккинчисида эса худди шундай маълумотлар берилган бўлса-да, хулосалар атай нотўғри қилиб ўзгартирилган.
Тажрибада 15 та LLM ва 171 нафар нейрофанлар соҳасидаги мутахассис иштирок этди. Уларнинг вазифаси иккита аннотациядан қайси бири ҳақиқий маълумотларни ўз ичига олганини аниқлашдан иборат эди. Натижалар ҳайратланарли бўлди: сунъий идрок моделлари ўртача 81 фоиз аниқликни кўрсатган бўлса, мутахассислар буни фақат 63 фоиз ҳолларда уддалай олди. Ҳатто энг тажрибали мутахассислар орасида ҳам аниқлик даражаси пастроқ – 66 фоизни ташкил этди.
Моделлар ўз башорати тўғрилигига бўлган ишончини ҳам намойиш этди: моделнинг ишончи қанчалик юқори бўлса, унинг башоратлари шунчалик кўп ҳолатларда тўғри чиқди. Бу натижа олимлар ва пухта созланган LLM ўртасидаги ҳамкорлик истиқболларини очади.
Тадқиқотчилар очиқ Mistral тил моделини нейрология соҳасидаги маълумотларга мослаштирди. BrainGPT деб номланган янги сунъий идрок натижаларни 86 фоиз аниқликда яхшилади. Бу кўрсаткич ҳатто энг мукаммал универсал тил моделларининг натижаларидан ҳам юқори.
“Яқин келажакда олимлар тажрибаларни максимал самарадорлик билан режалаштириш учун сунъий идрокдан фойдаланиши мумкин бўлади. Тадқиқотимиз нейрологияга қаратилган бўлса-да, ёндашувнинг ўзи универсал ва фаннинг барча соҳаларида қўллаш мумкин”, — деди тадқиқот бош муаллифи, профессор Бредли Лав
У натижаларнинг аҳамиятини ҳам алоҳида таъкидлади: “Башоратларнинг юқори аниқлиги фан асосан олдиндан айтиб бўладиган қонуниятларга асосланганини кўрсатмоқда. Бу эса шундай савол туғдиради: замонавий илмий ёндашув етарлича инновационми?”
Доктор Луо жамоаси келгусида олимларни қўллаб-қувватлаш учун сунъий интеллект воситаларини ривожлантиришни режалаштирмоқда.
Тавсия этамиз
Исроил эронликлар тузумга қарши исён кўтаришига умид қилмоқда. Бунинг эҳтимоли борми?
Жаҳон | 20:00 / 17.06.2025
Ҳозирда сиртқи таълимда ўқиётганлар ўқишини қай тартибда давом эттиради?
Ўзбекистон | 11:14 / 17.06.2025
Қўрқув, шок ва саросима: Эронда нималар бўлмоқда?
Жаҳон | 19:57 / 16.06.2025
Уруш бошланди, Нетаняҳу эронликларни исёнга чорлади – ҳафта дайжести
Жаҳон | 20:41 / 15.06.2025
Сўнгги янгиликлар
-
Эронда интернетга кириш чеклаб қўйилди
Жаҳон | 22:21
-
Исроил–Эрон урушининг Марказий Осиё учун геосиёсий мезонлари қандай?
Жаҳон | 22:13
-
Бойсун ўрмонида йирик ёнғин, муаммоли автобус бекатлари, васий тайинланган юзлаб болалар – маҳаллий дайжест
Ўзбекистон | 22:03
-
АҚШда бир неча ҳафта олдин вафот этган аёлнинг фарзанди туғилди
Жаҳон | 21:59
Мавзуга оид

10:37 / 12.06.2025
Дунёдаги можаролар сони 1946 йилдан бери энг юқори кўрсаткичга етди

18:47 / 04.06.2025
Дунёда фақат бир мамлакат ўзини озиқ-овқат билан тўлиқ таъминлаши маълум бўлди

13:18 / 12.05.2025
Ўзбекистонда тадқиқотлар учун ялпи харажатлар 4,5 трлн сўмни ташкил этди

18:43 / 08.05.2025