ხელოვნური ინტელექტის ბაზაზე მომუშავე პოპულარული ჩატბოტები სამედიცინო მოთხოვნებზე ხშირად მცდარ პასუხებს აგენერირებენ. სამეცნიერო ჟურნალ BMJ Open-ში გამოქვეყნებული მონაცემების თანახმად, უზუსტო პასუხების წილი 50%-ს უახლოვდება.ვმმკ,,,ნმ
კვლევის ფარგლებში ექსპერტებმა გააანალიზეს Gemini-ს, DeepSeek-ის, Meta AI-ს, ChatGPT-სა და Grok-ის მუშაობა. თითოეულ მათგანს დაუსვეს ათ-ათი კითხვა ონკოლოგიის, ვაქცინაციის, ღეროვანი უჯრედების, კვებისა და ფიზიკური აქტივობის შესახებ. მიღებული პასუხები შესაფასებლად გადაეცათ მეცნიერებს აშშ-დან, კანადიდან და დიდი ბრიტანეთიდან.
შედეგებმა აჩვენა, რომ პასუხების თითქმის ნახევარი (49,6%) ფაქტობრივ დამახინჯებებს შეიცავდა. მათგან 30% ნაწილობრივ უზუსტოდ იყო მიჩნეული, ხოლო 19% – მნიშვნელოვანი შეცდომების შემცველად.
პასუხების საერთო ხარისხი სხვადასხვა მოდელში მსგავსი იყო, თუმცა Grok-მა ყველაზე ცუდი მაჩვენებლები აჩვენა – მან ყველაზე მეტი უხეში შეცდომა დაუშვა.
ხელოვნური ინტელექტი ყველაზე სანდოდ ვაქცინაციასა და კიბოსთან დაკავშირებულ კითხვებს პასუხობდა. ყველაზე ცუდად კი ნეიროქსელებმა თავი კვების საკითხებს გაართვეს.
ჩატბოტები თითქმის ყოველთვის მაღალი დარწმუნებით აყალიბებდნენ პასუხებს და 250 შემთხვევიდან პასუხის გაცემაზე უარი მხოლოდ ორჯერ თქვეს. არცერთ სისტემას არ შეეძლო წყაროების სრულად კორექტული სიის წარდგენა. ხშირად ისინი ბმულებსა და წყაროებს თავად იგონებდნენ.
მეცნიერებმა აღნიშნეს, რომ ტექსტები აღქმისთვის რთული იყო და სირთულით უნივერსიტეტის მეორე კურსის მასალებს შეესაბამებოდა.
„შემოწმებულმა ჩატბოტებმა დამაკმაყოფილებელი შედეგები ვერ აჩვენეს ჯანმრთელობისა და მედიცინის იმ სფეროებში, რომლებიც ყველაზე მეტად არიან მიდრეკილნი დეზინფორმაციის გავრცელებისკენ. მათი შემდგომი გამოყენება საზოგადოებრივი განათლებისა და მკაცრი ზედამხედველობის გარეშე, შესაძლოა მცდარი ინფორმაციის გავრცელების რისკს ზრდიდეს“, – გვაფრთხილებენ მკვლევრები.













