Nëse pyesni Chat-GPT lidhur me ilaçet, ekziston mundësia që t’ju jap përgjigjen e gabuar

schedule14:41 - 5 Dhjetor, 2023

schedule 14:41 - 5 Dhjetor, 2023

Versioni falas i Open AI’s Chat-GPT mund të jetë duke u dhënë përgjigje të gabuara pyetjeve të mjekimit, duke i vënë në rrezik pacientët potencialisht, sipas një studimi nga Universiteti Long Island sot.

Farmacistët e Universitetit të Long Island, të cilët bënë 39 pyetje në lidhje me ilaçet në versionin falas të Chat-GPT, arritën në përfundimin se, sipas kritereve të tyre, kishte vetëm 10 përgjigje “të kënaqshme”, raporton CNBC.

Përgjigjet për 29 pyetjet e mbetura nuk lidheshin drejtpërdrejt me pyetjen e bërë, ose ishin të pasakta, të paplota ose të dyja, sipas studimit.

Studimi tregon se pacientët dhe ofruesit e kujdesit shëndetësor duhet të jenë të kujdesshëm kur mbështeten në Chat GPT për informacionin e ilaçeve dhe të kontrollojnë përgjigjet e chatbot-it të AI me burime të besuara, përfundoi autorja kryesore e studimit Sarah Grossman./abcnews.al