fbpx

Programet me karakteristika njerëzore abuzojnë me ndjeshmërinë tonë!

HomeLifestyleShkencë

Programet me karakteristika njerëzore abuzojnë me ndjeshmërinë tonë!

Inxhinieri nga Google, Blake Lemoine, nuk po fliste zyrtarisht për kompaninë kur pretendoi se kishte ndjeshmëri çatboti (makinë komunikimi – v.j.) i Google-it, LaMDA, por keqkuptimi i tij bëri me dije për rreziqet e dizajnimit të sistemeve me mënyrat që i bindin njerëzit se po shohin inteligjencë reale dhe të pavarur në një program. Nëse besojmë se janë të ndjeshme makinat që gjenerojnë tekst, çfarë veprimesh mund të ndërmarrim bazuar në tekstin që ato e gjenerojnë? Kjo e ka shtyrë Lemoinen të bëjë rrjedhjen e transkripteve sekrete nga programi, gjë që ka rezultuar me pezullimin aktual të tij nga organizata.

Google me vendosmëri është e prirë për atë lloj dizajni, siç shihet në demonstrimin e të njëjtit çatbot nga CEO i Alphabet-it, Sundar Pichai në “Google I/O” (konferenca vjetore e zhvillimeve – v.j.) në maj të vitit 2021, ku e shtyu LaMDA-n të fliste me zërin e Plutonit dhe të ndajë disa fakte zbavitëse rreth këtij ish-planeti. Teksa Google planifikon ta bëjë këtë teknologji si thelbësore në përballjen me konsumatorin, fakti se një nga inxhinierët e tij u mashtrua e nxjerr në pah nevojën që këto sisteme të jenë transparente.

LaMDA (shkurtesë për “modeli i gjuhës për aplikime dialogu”) është shembull i një modeli shumë të madh gjuhësor, ose një program kompjuterik i ndërtuar për të parashikuar sekuencat e mundshme të fjalëve. Për shkak se për një gamë të gjerë temash është “trajnuar” me sasi të mëdha teksti (kryesisht në anglisht), mund të prodhojë tekst, në dukje koherent, në anglisht. Them “në dukje koherent” sepse detyra e vetme e kompjuterit është të parashikojë se cili grup shkronjash do të vijë më pas, në mënyrë të njëpasnjëshme. Këto sekuenca marrin kuptim vetëm kur ne, si njerëz, i lexojmë ato.

Problemi është se nuk mund ta ndihmojmë veten. Mund të duket sikur – kur e kuptojmë fjalimin e njerëzve të tjerë – ne thjesht i deshifrojmë mesazhet. Në fakt, aftësia jonë për t’i kuptuar veprimet komunikuese të njerëzve të tjerë ka të bëjë kryesisht me imagjinatën e këndvështrimit të tyre dhe ne më pas të nxjerrim përfundimin se çfarë ata synojnë të komunikojnë përmes fjalëve që kanë përdorur. Pra, kur hasim në tekst në dukje koherent, që vjen nga një makinë, aplikojmë të njëjtën qasje për ta kuptuar atë: në mënyrë refleksive imagjinojmë se një mendje i prodhoi fjalët me një qëllim komunikues.

Joseph Weizenbaum e vuri re këtë efekt në vitet 1960, në kuptimin që njerëzit kishin për Eliza-n – programin e tij të krijuar për ta imituar një psikoterapist roxherian (sipas psikiatrit Carl Rogers). Në atë kohë, megjithatë, funksionimi i programit ishte mjaft i thjeshtë – për shkencëtarët e kompjuterëve – për të parë saktësisht se si i formonte përgjigjet e veta. Me LaMDA-n, inxhinierët e kuptojnë softuerin e trajnimit, por sistemi i trajnuar përfshin efektet e përpunimit të 1.5 trilion fjalëve në tekst. Në këtë nivel është e pamundur të kontrollosh se si programi e ka përfaqësuar gjithë këtë gamë. Kjo e bën të duket sikur ka “sjellje emergjente” (aftësi që nuk janë të programuara), të cilat lehtësisht mund të interpretohen si dëshmi të inteligjencës artificiale nga dikush që dëshiron ta besojë këtë.

Kjo është ajo që unë mendoj se i ndodhi Lemoinet, i cili mësoi se çfarë nxitjesh do ta bënin LaMDA-n të nxirrte sentenca të fjalëve që ai i interpreton si shenja të ndjeshmërisë. Mendoj se kjo ndodhi edhe me Blaise Agüera y Arcasin (inxhinier dhe nënkryetar në Google) i cili në “Economist” këtë javë shkroi se në bashkëveprim me LaMDA-n ndjente sikur po “fliste me diçka inteligjente”. Për komentet e tij Google e çoi Lemoinen në pushim administrativ, por nuk është distancuar nga deklaratat e bëra nga Agüera y Arcas.

Për momentin, qasja në LaMDA është e kufizuar, por vizioni i Pichait – i prezantuar vitin e kaluar – e përfshinte përdorimin e tij për ta zëvendësuar faqen e njohur të kërkimit në ueb – në thelb duke e përdorur atë si një lloj portieri që përgjigjet në pyetje. Siç Chirag Shah dhe unë kemi shkruar kohët e fundit, përdorimi i modeleve gjuhësore, në vend të makinave të kërkimit, do të dëmtojë shkrim-leximin e informacionit. Një model gjuhësor sintetizon sekuencat e fjalëve për të dhënë përgjigje si reagim ndaj kërkimeve, por nuk mund t’i tregojë burimet e informacionit. Kjo do të thotë se përdoruesi nuk mund t’i vlerësojë këto burime. Në të njëjtën kohë, përgjigjet e kthimit të bisedave do të na inkurajojnë të imagjinojmë mendjen aty ku nuk ka, dhe një mendje që supozohet se është e mbushur me aftësinë e pretenduar të Google-it për të “organizuar informacionin e botës”.

Ne as nuk e dimë se çfarë do të thotë “informacioni i botës” i indeksuar nga LaMDA. Google nuk na ka treguar në detaje se cilat të dhëna i përdor programi. Duket se janë kryesisht mbledhje nga rrjeti, me kontroll të kufizuar ose pa cilësi. Sistemi do të sajojë përgjigje nga këto të dhëna të padokumentuara, ndërkohë që do të perceptohet si autoritet.

Tashmë mund ta shohim rrezikun e kësaj në funksionin e fragmenteve të tekstit që shfaqet në krye të faqes të rezultateve të kërkimit në Google, që prodhon përmbledhje të përgjigjeve nga faqet e internetit, me ndihmën e një modeli gjuhësor. Ajo ka dhënë përgjigje absurde, fyese dhe të rrezikshme, të tilla si të thuash se Kanadaja është gjuha më e shëmtuar e Indisë, se “njerëzit” e parë që mbërritën në Amerikë ishin kolonët evropianë dhe, nëse dikush ka ndonjë sulm, t’i bëjë të gjitha ato gjëra që sidomos Shërbimi shëndetësor i Universitetit të Jutas i paralajmëron njerëzit të mos i bëjnë.

Kjo është arsyeja se pse duhet të kërkojmë transparencë, veçanërisht në rastin e teknologjisë që përdor faqet e kërkimit me karakteristike njerëzore, siç është gjuha. Për çdo sistem të automatizuar, duhet të dimë se për çfarë është trajnuar të bëjë, çfarë të dhënash trajnimi janë përdorur, kush i ka zgjedhur ato të dhëna dhe për çfarë qëllimi. Sipas fjalëve të studiuesve inteligjencës artificiale, Timnit Gebru dhe Margaret Mitchell, imitimi i sjelljes njerëzore është “linjë e ndritshme” – një kufi i qartë që nuk duhet kapërcyer – në zhvillimin e softuerit kompjuterik. I trajtojmë ndryshe ndërveprimet me gjërat që i perceptojmë si njerëzore ose me karakteristika njerëzore. Me sistemet e tilla si LaMDA, i shohim rreziqet e tyre të mundshme dhe nevojën urgjente për të dizajnuar sisteme në mënyrat që nuk abuzojnë me empatinë ose me besimin tonë.

Nga: Emily M Bender, studiuese dhe profesoreshë e Gjuhësisë në Universitetin e Uashingtonit / The Guardian
Përkthimi: Telegrafi.com

COMMENTS

x