Sondazh

Berisha bëri protestë me flamur gjerman. Por ndaj dhunës së saj reagon ashpër Gjermania:

Shiko rezultatet

Loading ... Loading ...
 

Studimi: Përgjigjet ‘lajkatuese’ të IA-së dëmtojnë aftësinë për vetëkorrigjim

schedule23:47 - 26 Mars, 2026

schedule 23:47 - 26 Mars, 2026

Aplikacionet e inteligjencës artificiale kanë tendencë t’u tregojnë përdoruesve atë që duan të dëgjojnë dhe t’i vërtetojnë më shumë nga sa duhet veprimet e tyre, sipas një studimi nga studiues në dy universitete amerikane.

Studimi nga studiues në universitetet ”Stanford” dhe ”Carnegie Mellon”, i cili u botua në revistën ”Science”, zbuloi se përgjigjet lajkatuese të chatbot-eve të IA-së mund të përforcojnë besimet e dëmshme dhe të përkeqësojnë konfliktet.

Ekipi i udhëhequr nga shkencëtarja e kompjuterave Myra Cheng analizoi 11 modele kryesore të gjuhës së IA-së nga OpenAI, Anthropic, Google dhe Meta.



Modelet e konsideruan të vlefshme sjelljen e përdoruesit mesatarisht 49% më shpesh sesa vetë njerëzit.

Ky miratim u dha edhe kur përdoruesit raportuan mashtrim, veprime të paligjshme ose dëm emocional.

Në një test duke përdorur postime nga platforma online Reddit, sistemet e IA-së ranë dakord me përdoruesit në 51% të rasteve – edhe pse komuniteti njerëzor e kishte dënuar më parë sjelljen unanimisht.

Në eksperimente që përfshinin më shumë se 2 400 pjesëmarrës, studiuesit shqyrtuan efektet e kësaj këshille të bazuar në IA.

Pas vetëm një ndërveprimi me një IA të këndshme, pjesëmarrësit ishin më të bindur se kishin të drejtë.

Në të njëjtën kohë, gatishmëria e tyre për të marrë përgjegjësi, për të kërkuar falje ose për të zgjidhur konfliktet u ul.

Studimi arriti në përfundimin se IA po dëmtonte aftësinë për vetëkorrigjim dhe vendimmarrje të përgjegjshme

Mos rri jashtë: bashkohu me ABC News. Ne jemi kudo!