Лечение с изкуствен интелект може да ви разболее повече! Той няма медицинско образование!

0
26
768x432[1]
Само глупаци се лекуват с И.И.

Все повече хора използват чатботове с изкуствен интелект, за да получат информация за свои здравни проблеми. Обикновено за секунди върнатите отговори звучат гладко, професионално и са допълнени от „източници“.

Само че твърденият в тях са неверни, а линковете не водят никъде. Това показват резултати от ново изследване, публикувано в BMJ Open, което поставя под лупа пет от най-популярните ИИ чатботове в света.

Екип от учени задава 50 медицински въпроса на Chat GPT, Gemini, Grok, Meta AI и DeepSeek.                                                                                                              Темите включват рак, ваксини, стволови клетки, хранене и спортни постижения. Двама независими експерти оценяват всеки отговор и резултатите са тревожни.

ChatGPT не се представя добре със здравните съвети

ChatGPT не се представя добре със здравните съвети

Около 20% от отговорите са силно проблематични, половината са проблематични, а останалите 30% – донякъде проблематични.               Нито един чатбот не успява да предостави напълно коректен списък с научни източници.

Най-слабо се представя Grok, при който 58% от отговорите са проблемни. Следват ChatGPT с 52% и Meta AI с 50%.

Къде чатботовете се справят добре – и къде се провалят

Най-добри резултати се наблюдават при теми като рак и ваксини, където научната база е ясна и добре структурирана. Въпреки това дори в тези области приблизително една четвърт от отговорите съдържат проблеми.

Въпросите за хранителни добавки често получават грешни отговори

Източник: iStock

Въпросите за хранителни добавки често получават грешни отговори

Най-големи затруднения се наблюдават при хранене и спортни постижения – теми, в които онлайн пространството е пълно с противоречива информация, а научните доказателства често са ограничени.

Когато изследователите искат от чатботовете да предоставят научни източници към конкретните отговори, средната точност е едва 40%. Нито един модел не успява да състави напълно коректен списък.

Срещат се объркани автори, несъществуващи статии, счупени линкове и дори напълно измислени публикации. Това е особено опасно, защото добре форматираните източници създават илюзия за достоверност, която повечето потребители не поставят под съмнени

Най-сигурният начин да получим здравен съвет е от лекар

Друго изследване, публикувано в JAMA Network Open, тества 21 ИИ модела за медицинска диагностика. Когато моделите получават само базова информация – симптоми, възраст, пол, те грешат в над 80% от случаите.

Трето проучване, публикувано в Nature Communications Medicine, показва, че чатботовете лесно повтарят и дори разширяват измислени медицински термини, ако потребителят ги включи в запитването.

Какво означава това за нас, потребителите

Чатботовете с ИИ не са медицински авторитети и не трябва да се използват като такива.                                                                                                        Препоръчително е да проверим всяко твърдени, което чатботът прави, в надежден източник. Източниците трябва също да бъдат проверени.

Когато отговорът звучи прекалено категоричен, винаги го поставяме под съмнение и търсим допълнителна информация. И не заменяме посещението при лекар с „консултация“ с чатбот, пишат The Conversation.


ADS