Versioni falas i Open AI’s Chat-GPT mund të jetë duke u dhënë përgjigje të gabuara pyetjeve të mjekimit, duke i vënë në rrezik pacientët potencialisht, sipas një studimi nga Universiteti Long Island sot.
Farmacistët e Universitetit të Long Island, të cilët bënë 39 pyetje në lidhje me ilaçet në versionin falas të Chat-GPT, arritën në përfundimin se, sipas kritereve të tyre, kishte vetëm 10 përgjigje “të kënaqshme”, raporton CNBC.
Përgjigjet për 29 pyetjet e mbetura nuk lidheshin drejtpërdrejt me pyetjen e bërë, ose ishin të pasakta, të paplota ose të dyja, sipas studimit.
Studimi tregon se pacientët dhe ofruesit e kujdesit shëndetësor duhet të jenë të kujdesshëm kur mbështeten në Chat GPT për informacionin e ilaçeve dhe të kontrollojnë përgjigjet e chatbot-it të AI me burime të besuara, përfundoi autorja kryesore e studimit Sarah Grossman./abcnews.al