Google, Microsoft dhe Open AI kanë formuar një grup për të rregulluar inteligjencën artificiale

schedule15:15 - 31 Korrik, 2023

schedule 15:15 - 31 Korrik, 2023

Katër nga kompanitë më me ndikim në fushën e inteligjencës artificiale kanë formuar një grup industrie për të mbikëqyrur zhvillimin e sigurt të modeleve më të avancuara të inteligjencës artificiale.

Organizata “Frontier Model Forum” formoi kompaninë “Open AI”, e cila zhvilloi chatbotin ChatGPT, më pas “Microsoft”, “Google”, pronar i kompanisë së inteligjencës artificiale “Deep Mind” me qendër në Mbretërinë e Bashkuar dhe kompania “Anthropic. “.

Përfaqësuesit e këtij grupi thonë se fokusi do të jetë në zhvillimin e sigurt dhe të përgjegjshëm të modeleve më të avancuara të inteligjencës artificiale, ndërsa do të mendohet edhe për teknologjinë e ardhshme të bazuar në inteligjencën artificiale që do të jetë shumë më e avancuar se mjetet e disponueshme aktualisht, shkruan Guardian. .

“Kompanitë që zhvillojnë teknologjinë e bazuar në AI janë përgjegjëse për krijimin e një produkti të sigurt që duhet të mbetet nën kontrollin e njeriut”, tha Brad Smith, president i Microsoft.

Ai shton se kjo nismë është një hap kyç për afrimin e sektorit të teknologjisë në fushën e zhvillimit të përgjegjshëm të inteligjencës artificiale në një mënyrë që do të përfitojë mbarë njerëzimin.

Anëtarët e forumit deklarojnë se qëllimet e tyre kryesore janë të promovojnë kërkimin e sigurisë së AI, të tilla si zhvillimi i standardeve për vlerësimin e modeleve; inkurajimi i aplikimit të përgjegjshëm të modeleve të avancuara të bazuara në inteligjencën artificiale; diskutimi i rreziqeve të sigurisë dhe besimit në inteligjencën artificiale me politikanët dhe ekspertët; mbështetjen e zhvillimit të përdorimeve pozitive të inteligjencës artificiale si lufta kundër krizës klimatike dhe zbulimi i hershëm i kancerit.

Ata shtojnë se anëtarësimi në grup është i hapur për organizatat që zhvillojnë modele kufitare, të cilat përkufizohen si “modele të mëdha të mësimit të makinerive që tejkalojnë aftësitë e pranishme aktualisht në modelet ekzistuese më të avancuara dhe mund të kryejnë një gamë të gjerë detyrash”.

Njoftimi për formimin e këtij grupi vjen në një kohë kur rregullimi i teknologjisë po përshpejtohet. Të premten, kompanitë e teknologjisë – përfshirë anëtarët e grupit Frontier Model Forum – ranë dakord për masa të reja mbrojtëse në lidhje me inteligjencën artificiale pas një takimi me Joseph Biden në Shtëpinë e Bardhë.

Angazhimet e miratuara në takim përfshijnë raportimin e përmbajtjes së prodhuar nga mjetet e bazuara në AI për të dalluar më lehtë materialet mashtruese (të tilla si të ashtuquajturat falsifikime të thella) dhe lejimin e ekspertëve të pavarur të testojnë modelet e AI.

Njoftimi i Shtëpisë së Bardhë u prit me skepticizëm nga disa aktivistë të cilët thonë se industria e teknologjisë është e njohur për shkeljen e vetërregullimit. Njoftimi i Metës javën e kaluar se do të lëshonte një model të AI u përshkrua nga një ekspert si “duke u dhënë njerëzve një plan për të bërë një bombë bërthamore”.

Grupi Frontier Model Forum thekson se “kontribute të rëndësishme” për sigurinë janë dhënë nga organe të tilla si qeveria e Mbretërisë së Bashkuar, e cila mblodhi një samit global për sigurinë e AI dhe BE, e cila po prezanton një projektligj për AI që është legjislativi më serioz. përpjekje për të rregulluar aktualisht teknologjinë me rritje më të shpejtë.

Mos rri jashtë: bashkohu me ABC News. Ne jemi kudo!