ComunicateCum ar trebui guvernul sa ghideze utilizarea IA generativa?

Cum ar trebui guvernul sa ghideze utilizarea IA generativa?

-

Pentru unii, cresterea rapida a inteligentei artificiale este o cauza de anxietate. AI va perpetua prejudecatile, va scoate la iveala informatii inexacte sau va automatiza oamenii din locurile de munca? In calitate de prim strateg sef al inteligentei artificiale din New Jersey, Beth Simone Noveck vede acest moment nu ca un motiv de alarma, ci mai degraba ca pe o oportunitate.

„O multime de locuri tac, lasand functionarii publici sa se intrebe ce ar trebui sa faca”, a spus ea. In New Jersey, „am spus: Ar trebui sa iesi si sa folosesti aceste lucruri si te rog sa intrebi despre ele. Sa vorbim despre ele. Sa avem o conversatie”.

Odata cu prima iteratie a politicii de inteligenta artificiala a statului, lansata in noiembrie anul trecut, Noveck cauta sa porneasca aceasta conversatie. Si nu e singura. In SUA, liderii guvernamentali din domeniul IT formuleaza politici pentru a incuraja explorarea capabilitatilor emergente, in special in ceea ce priveste AI generativa, fiind totusi atenti la riscurile potentiale.

Expertii spun ca este nevoie urgenta ca guvernul sa stabileasca balustrade, avand in vedere disponibilitatea in crestere rapida a aplicatiilor AI generative. „Aceste instrumente sunt deja disponibile public si sunt adoptate sau utilizate in mod privat”, a spus Mehtab Khan, coleg la Harvard Berkman Klein Center. Avand in vedere adoptarea rapida, „nu aveti niciun control, in afara de faptul ca aveti doar politici si principii interne”.

Aici, ne vom uita la unele dintre aceste politici emergente si vom explora ce este in joc: de ce sunt necesare politici acum si cum vor evolua lucrurile pe masura ce IA generativa continua sa ia lumea cu asalt.

Reglementarea utilizarilor orasului

Fiind primul punct de lucru in Seattle, CTO interimar Jim Loter a stabilit linii directoare pentru ca personalul sa preia orice utilizare necorespunzatoare.

In timp ce echipa IT explora deja AI de cativa ani, „cresterea exploziva a AI generativa… a fost intr-adevar catalizatorul pentru ca noi sa luam mai in serios preocuparile care au fost evidentiate cu privire la inteligenta artificiala”, a spus el.

„Am vazut ca, odata cu cresterea instrumentelor precum ChatGPT, a fost dintr-o data foarte, foarte probabil ca angajatii orasului sa doreasca sa foloseasca aceasta tehnologie pentru a-si desfasura activitatea de zi cu zi”, a spus el. „Am vrut sa deschidem o conversatie despre asta”.

Pentru a formula politica, orasul a adunat o echipa de consiliere pentru politici generative de inteligenta artificiala care a inclus lideri de la Universitatea din Washington, Institutul Allen pentru IA, membri ai consiliului consultativ de tehnologie comunitara (CTAB) al orasului si angajati din Tehnologia informatiei din Seattle.

Echipa a urmat acelasi model pe care orasul l-a folosit atunci cand a elaborat o politica de confidentialitate a datelor cu cativa ani mai devreme, o strategie care a cerut o declaratie de indrumari generale ca punct de plecare.

„Am constatat ca abordarea bazata pe principii a fost foarte eficienta, deoarece nu ne cerea sa anticipam fiecare caz potential de utilizare care ar putea aparea in acest domeniu”, a spus Loter. „Ne-a permis sa comunicam cu angajatii orasului: mergeti mai departe si folositi-va discretia. Cand luati o decizie cu privire la utilizarea sau nu a unui anumit sistem, tineti cont de aceste principii.”

Ar trebui sa iesi si sa folosesti aceste lucruri si te rog sa intrebi despre ele. Sa vorbim despre ei. Hai sa avem o conversatie.

In acest scop, politica IA articuleaza mai multe principii de guvernare, atingand domenii precum transparenta si responsabilitatea; validitate si fiabilitate; partinire si corectitudine; confidentialitate; si explicabilitate.

Politica reitereaza, de asemenea, regula indelungata conform careia departamentul IT este singurul organism autorizat sa achizitioneze tehnologie informationala in numele orasului. Este prea usor sa accesezi instrumentele AI online, a spus Loter, iar echipa IT vrea sa se asigure ca angajatii orasului nu ocolesc controalele obisnuite in ceea ce priveste confidentialitatea si securitatea.

Aceasta se refera la „chiar si la ceva atat de simplu ca crearea unui cont gratuit pe ChatGPT”, a spus el. „Daca introduceti adresa Seattle.gov in aceasta si apoi incepeti sa introduceti solicitarile si sa utilizati rezultatele acesteia, creati riscuri inutile”.

Beth Simone Noveck a fost ofiterul sef de inovare din New Jersey atunci cand statul si-a lansat politica AI in noiembrie 2023. In ianuarie 2024, a fost numita strateg sef AI, deoarece guvernatorul Phil Murphy a cerut o „privire a lunii AI”.

Eforturi in curs

Intre timp, in California, CIO de stat si directorul Departamentului de Tehnologie, Liana Bailey-Crimmins, descrie, de asemenea, aparitia unei politici AI care va oferi indrumari generale la inceput sub forma de politici administrative.

„Recunoastem natura noua si unica a GenAI si lucram indeaproape cu expertii din industrie si din mediul academic pentru a intelege riscurile si beneficiile acestei tehnologii si unde ar putea fi necesara o politica suplimentara”, a spus ea intr-un e-mail catre Government Technology.

In aceste zile de inceput, aceste eforturi politice sunt modelate de un ordin executiv al guvernatorului California Gavin Newsom. Introdus in septembrie anul trecut, ofera un cadru pentru ca statul sa inteleaga atat riscurile, cat si beneficiile AI generative, oferind directie agentiilor de stat in timp ce isi formuleaza abordarile. Scopul, conform documentului, este de a crea „un ecosistem de inovare sigur, etic si responsabil in cadrul guvernului de stat”.

Aceste orientari vor acoperi in cele din urma achizitiile din sectorul public, utilizarile si formarea necesara pentru aplicarea IA generativa. Politica emergenta, a spus Bailey-Crimmins, se va baza pe indrumarile timpurii din mai multe surse la nivel federal, inclusiv Cadrul de management al riscului AI al NIST, Planul Casei Albe pentru o Declaratie a drepturilor AI si Ordinul Executiv al Casei Albe privind siguranta. Dezvoltarea si utilizarea in siguranta si de incredere a inteligentei artificiale.

California va recruta, de asemenea, experti academicieni si din industrie pe masura ce politicile sale evolueaza, pentru a „a asigura ca adoptam o abordare echilibrata si perspicace pentru a lua in considerare nevoile actuale si viitoare de politica”, a spus ea.

Faceti AI operationala

In New Jersey, guvernatorul Phil Murphy a infiintat un grup de lucru AI, care este adesea primul pas pe care factorii de decizie il fac atunci cand se confrunta cu AI generativa. Noveck co-presedeaza grupul de lucru, impreuna cu CTO de stat Chris Rein si Tim Sullivan, CEO al Autoritatii pentru Dezvoltare Economica din New Jersey.

In noiembrie 2023, grupul operativ a emis primul sau anunt de politica. Politica stabileste un obiectiv pentru angajatii guvernamentali, solicitandu-le sa foloseasca AI „pentru a furniza servicii si produse imbunatatite in mod eficient, in siguranta si in mod echitabil tuturor rezidentilor”.

Scopul unei politici este de a oferi oamenilor indrumari despre ceea ce trebuie sa faca, iar asta vine din intelegerea care sunt intrebarile.

Se refera la incluziune si respect („AI ar trebui sa ridice comunitatile”). Indeamna la transparenta („Trebuie sa dezvaluim acest lucru in mod responsabil si sa ne impartasim liber fluxul de lucru cu alti functionari publici si cu publicul”). Si incurajeaza experimentarea responsabila („Intelegem ca riscurile pot sa nu fie pe deplin evidente initial si ne angajam sa evaluam proactiva riscurile”).

Ideea tuturor este de a face mingea sa ruleze. „Acestea sunt noi tehnologii puternice care ne pot ajuta cu adevarat sa ne facem treaba mai bine”, a spus Noveck.

In explorarea acestui potential, „ar trebui sa fiti in concordanta cu masurile de protectie, cum ar fi: Nu va bazati exclusiv pe informatiile pe care vi le ofera. Asigurati-va ca le dezvaluiti atunci cand le utilizati. Nu puneti informatii de identificare personala, ale dvs. sau ale altcuiva, in aceste instrumente”, a spus ea.

Politica ofera exemple specifice despre cum ar putea fi utilizate instrumentele AI, impreuna cu indrumari pentru a face acest lucru in mod responsabil. „De asemenea, am insotit asta cu un material video”, a spus Noveck. „Iti aratam de fapt: aici te conectezi, iata ce ar trebui sa faci, iata cum poti rezuma ceva sau traduce ceva sau simplifica limbajul.”

Toate acestea urmaresc „sa ajute oamenii sa inceapa sa foloseasca aceste tehnologii pentru a face lucruri in beneficiul rezidentilor”, a spus ea.

Chiar daca Noveck se concentreaza pe potentialele beneficii ale inteligentei artificiale, ea se alatura altora pentru a recunoaste riscurile cu care se confrunta guvernul in timp ce incearca sa foloseasca cat mai bine aceasta noua capacitate puternica.

Ce este in joc

In primul rand, AI a demonstrat o capacitate extraordinara de a gresi in mod convingator si increzator.

Definitia „halucinatei” in legatura cu AI.

„Aceste instrumente uneori halucineaza”, a spus Noveck. „Ei scuipa cu foarte mare autoritate informatii care pot fi incorecte si, prin urmare, trebuie sa verificati orice text. Nu utilizati niciodata ceea ce obtineti de la un instrument precum ChatGPT sau Bard fara sa il verificati mai intai.”

Asa cum un angajat guvernamental nu ar posta munca unui stagiar pentru consumul public fara sa o examineze mai intai, a spus ea, rezultatele AI ar trebui verificate de persoane responsabile inainte de a fi folosite pentru a lua decizii sau de a fi eliberate in salbaticie.

„Nu publica lucruri, in special lucruri pe care rezidentii se vor baza, daca nu au fost verificate si verificate”, a spus ea.

California, intre timp, se uita la o gama larga de riscuri.

„Ne concentram pe domenii cheie, cum ar fi liniile directoare privind achizitiile, managementul riscurilor si securitatea, pentru a ne asigura ca posibilele capcane precum confidentialitatea, utilizarea abuziva si rezultatele partinitoare sunt evaluate, monitorizate si atenuate in mod corespunzator”, a spus Bailey-Crimmins. Obiectivul? „Rezultate sigure, sigure si echitabile”.

In Seattle, evaluarea riscului „a inceput cu o intrebare foarte simpla: este cu adevarat nou? Este doar un gest de marketing care il face sa para nou, sau este intr-adevar ceva care prezinta riscuri noi?” spuse Loter.

Raspuns scurt: este nou. Desi exista intotdeauna o sansa ca software-ul sa functioneze incorect, „nu ne-am putut gandi cu adevarat la un alt exemplu de software care sa produca si sa genereze, literalmente, continut nou care ar putea fi, in esenta, doar copiat si lipit si care suna ca si cum ar fi fost produs de un persoana”, a spus el. Acest risc generativ este in fruntea listei preocuparilor.

„Daca folosesti ChatGPT pentru a publica ceva pe site-ul web al orasului si acel ceva ajunge sa fie inexact – sau, in cel mai rau caz, de fapt, inflamator sau daunator in alt mod orasului – nu conteaza ca ChatGPT a scris asta, ” el a spus. „Cine a luat decizia de a-l copia si lipi si de a-l publica pe site-ul web este responsabil pentru asta.”

Iar riscul generativ produce, la randul sau, o preocupare auxiliara care trebuie luata in considerare. Va introduce AI noi datorii?

Sa presupunem, de exemplu, ca un angajat al orasului foloseste un instrument GenAI pentru a cerceta o intrebare. “Acum l-ati adus in ecosistem, i-ati furnizat informatii despre oras care acum locuieste acolo. Ar putea fi solicitat ca parte a unei cereri de dezvaluire publica – si nu stim ca este acolo”, a spus el.

In acest caz, „curmam riscul sa nu raspundem la o solicitare de inregistrari publice”, a spus el.

Unde ne indreptam

Toate acestea sunt probabil doar varful aisbergului. Inteligenta artificiala generativa este o tinta in miscare, iar liderii IT guvernamentali se asteapta ca riscurile – si raspunsurile lor politice – sa continue sa evolueze.

„Tehnologiile AI cresc si se schimba rapid”, a spus Bailey-Crimmins. „Vedem deja ca capacitatile AI sunt adaugate la multe instrumente de productivitate si colaborare utilizate in mod obisnuit, asa ca incorporarea acestei tehnologii la locul de munca al statului este inevitabila.”

Asa fiind, „ne asteptam ca standardele, orientarile si politicile legate de AI si GenAI din California sa se schimbe pe masura ce aceste tehnologii se schimba”, a spus ea.

In New Jersey, Noveck are in vedere politici mai specifice privind utilizarea interna. „Cum folosim noi in guvern tehnologia AI si care sunt regulile de drum acolo?” ea a spus. Iteratiile de politica emergente vor urmari „sa se asigure ca instrumentele fac ceea ce spun ca vor face, ca avem o transparenta adecvata in modul in care functioneaza, ca avem modalitati de a le testa”.

In special, viitoarea politica va sublinia importanta supravegherii umane. Echipa de politici va analiza, de asemenea, cazurile de utilizare timpurie, pentru a determina unde este nevoie cel mai mult de orientari. „Scopul unei politici este de a oferi oamenilor indrumari despre ceea ce trebuie sa faca, iar asta vine din intelegerea care sunt intrebarile”, a spus ea.

In Seattle, urmatorul pas al orasului va fi stabilirea unei structuri care sa conduca la aplicarea practica a principiilor directoare generale.

„Vom crea ceea ce se numeste o comunitate de practica pentru angajatii orasului care sunt interesati de tehnologiile AI”, pentru a-i ajuta sa implementeze principiile, a spus Loter. Vor face schimb de informatii, vor dezvolta cele mai bune practici. Acest lucru va ajuta, la randul sau, factorii de decizie sa „inteleaga mai bine cum doresc sau ar trebui sa foloseasca oamenii aceasta tehnologie in cazurile de utilizare din viata reala”.

Echipa IT va evolua, de asemenea, politica pentru a-si ghida propriul proces de cumparare in jurul instrumentelor AI. Probabil ca va incepe cu o definitie clara: urmatoarea runda de politici va preciza exact ce este sau nu un instrument GenAI, atat pentru a ajuta IT-ul in evaluarile sale, cat si pentru a ghida angajatii orasului in timp ce incearca sa inteleaga unde si cum. ar trebui aplicata politica IA.

In general, politica va continua sa defineasca reguli de angajare la nivel inalt, fara a intra prea adanc in piulite si suruburi. „De indata ce ajungi la nivelul granular si incepi sa incerci sa legiferati anumite produse sau versiuni de software, sau chiar anumite cazuri de utilizare, incepeti sa jucati acest joc urias de lovire a cartitei cu realitatea”, a spus Loter. „Nu am vrut sa intram in asta”.

Caracteristica unei politici bune „este ca este aplicabila pe scara larga, este usor de urmat si nu trebuie schimbata de fiecare data cand un produs nou este lansat pe piata. Pentru asta incercam”, a spus el. – Serviciul de stiri pentru tehnologie guvernamentala/Tribune

Latest news

- Advertisement -spot_imgspot_img

Must read

- Advertisement -spot_imgspot_img

You might also likeRELATED
Recommended to you