Ce este "AI data poisoning" și cum apare?

De la agenții chatbot până la asistenții digitali, inteligența artificială (AI) ia lumea cu asalt. Inteligența artificială simulează inteligența umană prin intermediul computerelor și a transformat modul în care trăim și muncim, prin automatizarea unor sarcini precum serviciile pentru clienți sau controlul calității, care sunt de obicei efectuate de oameni. Recent, ChatGPT a uimit utilizatorii oferind conversații pe bază de tehnologie AI plecând de la câteva indicații ale utilizatorului. Pe lângă furnizarea de informații despre aproape orice subiect imaginabil, agentul chatbot cu AI poate de asemenea să scrie și să editeze programe, să rezolve probleme matematice și să producă texte. Utilizatorii pot instala de asemenea diverse pluginuri ChatGPT pentru o experiență AI îmbunătățită.

Un avantaj uriaș al inteligenței artificiale față de lucrătorii umani este că pot lucra mai rapid computerele, și fac foarte puține greșeli. Sistemele cu tehnologie AI funcționează în general consumând cantități mari de date de instruire pentru a face predicții cu privire la cererile viitoare. De exemplu, antrenarea agenților de chat cu exemple de texte îi ajută pe aceștia să învețe să genereze dialoguri realiste bazate pe numeroase subiecte. Programarea AI utilizează abilități cognitive precum achiziția de date și utilizarea de reguli, cunoscute sub numele de algoritmi, pentru a îndeplini sarcini specifice, alegerea celui mai potrivit algoritm pentru sarcina dată și autocorectarea pentru a asigura rezultate exacte.

Ce este otrăvirea datelor AI și cum funcționează?

La fel ca majoritatea formelor de tehnologie, inteligența artificială este, de asemenea, susceptibilă la hacking și la criminalitatea informatică. Prin manipularea algoritmilor, infractorii cibernetici pot controla rezultatul funcțiilor AI în așa-numitele atacuri de otrăvire a datelor. Dacă datele stocate de o mașină sunt inexacte sau nesigure, algoritmii AI ai acesteia nu vor produce rezultate exacte. De exemplu, dacă un chatbot este programat să înțeleagă greșit solicitările utilizatorilor, acesta va produce în mod neintenționat răspunsuri viciate. De asemenea, instrumentele de traducere bazate pe inteligență artificială ar putea fi programate să nu înțeleagă sensul unui cuvânt sau al unei fraze, ducând la o traducere incorectă. Atacurile de otrăvire a datelor sunt, în esență, acte de înșelăciune care induc în eroare, în mod intenționat și rău intenționat, bazele de date AI.

De ce are loc otrăvirea datelor?

Inteligența artificială continuă să pună în pericol mijloacele de subzistență ale artiștilor, scriitorilor și altor creativi, iar tehnologia AI a fost direct responsabilă pentru pierderea a 3 900 de locuri de muncă sau aproximativ 5% din locurile de muncă din SUA în luna mai a acestui an. Amenințarea ca locurile de muncă sau meseriile să fie preluate de inteligența artificială este foarte reală, iar mulți oameni sunt, pe bună dreptate, nemulțumiți. Recent, artiștii au început să utilizeze un nou instrument numit Nightshade pentru a face modificări invizibile pixelilor din operele lor de artă înainte de a le încărca online, astfel încât acestea să producă rezultate imprevizibile atunci când sunt descoperite de sistemele AI. Artiștii folosesc acest instrument pentru a se proteja de instrumentele AI care le folosesc operele de artă fără permisiune. Instrumentul poate transforma câinii în pisici și mașinile în vaci, făcând rezultatele inutile pentru utilizatorii neștiutori.

Ce se întâmplă cu sistemele AI atunci când datele sunt otrăvite?  

Sistemele de date otrăvite apar atunci când informații rău intenționate sau înșelătoare sunt injectate în setul de date de instruire al inteligenței artificiale. Această metodă ruinează procesul de învățare și creează prejudecăți, ceea ce determină luarea unor decizii greșite și răspunsuri incorecte și este un fenomen cunoscut sub denumirea de otrăvire prin ușa din spate. Așa-numita otrăvire a datelor de instruire are loc atunci când atacatorii influențează modelele de învățare în direcția unui anumit rezultat sau a unei prejudecăți care avantajează făptașul. În plus, atacurile de inversare a modelului permit infractorilor cibernetici să extragă informații specifice și sensibile din răspunsurile modelului AI, care sunt apoi utilizate în avantajul hackerului. În sfârșit, atacurile stealth creează vulnerabilități care sunt practic nedetectabile în timpul testării. Cu toate acestea, aceste vulnerabilități pot fi expuse și exploatate odată ce modelele sunt lansate.

Inteligența artificială poate fi, de asemenea, utilizată pentru a crea falsuri de tip deep-fake, care sunt folosite pentru a manipula conținutul și a defăima persoane. Acestea pot fi utilizate pentru a produce imagini, videoclipuri sau fișiere audio realiste pentru a se da drept victime și pentru a recrea scenarii care nu există sau care nu au avut loc niciodată. Falsurile deep-fake sunt produse prin utilizarea a doi algoritmi AI: unul care creează o replică a suportului media dorit și altul care poate raporta diferențele dintre imaginile reale și cele false. Acest lucru poate fi repetat până când nu mai sunt detectate imagini false.   

Cum putem combate otrăvirea datelor?

Otrăvirea datelor este un fenomen nefericit care este dificil de prevenit, deoarece datele contaminate pot fi dificil de detectat. Ar fi imposibil să cerneți prin cantitatea mare de informații dintr-o bază de date a unui software de inteligență artificială pentru a verifica acuratețea și potențiala otrăvire, însă întreprinderile pot implementa practici pentru a minimiza riscul atacurilor. În primul rând, acestea ar trebui să fie atente atunci când împărtășesc date sensibile și să informeze angajații să nu introducă informații private despre companie în instrumentele AI, reducând astfel riscul scurgerilor de date sau al manipulării. În plus, efectuarea de teste de penetrare a sistemelor și rețelelor companiei ca parte a unei strategii cuprinzătoare de securitate cibernetică poate ajuta întreprinderile să înțeleagă punctele slabe și vulnerabilitățile potențiale. Aceste teste ar trebui repetate în mod regulat pentru a avea certitudinea că sistemele sunt intacte.

În plus, punerea în aplicare a unei așa-numite strategii de ținte mobile împotriva atacatorilor poate proteja modelele de învățare automată prin schimbarea ocazională a algoritmilor. Atunci când instruiesc software-ul de inteligență artificială, întreprinderile ar trebui să se asigure că furnizează informații din surse de date coerente, valide și preselectate pentru a evita otrăvirea datelor și să se gândească de două ori înainte de a se baza pe surse care nu sunt de încredere sau controlate. Selectarea diligentă a bazelor de date și a informațiilor pentru instruirea software-ului IA este un pas esențial în combaterea otrăvirii datelor, iar companiile ar trebui să își amintească să fie proactive în protejarea lor.  

Concluzie: Viitorul inteligenței artificiale și otrăvirea datelor AI

Deși inteligența artificială este utilă în multe feluri, cum ar fi eficientizarea proceselor de lucru și reducerea costurilor forței de muncă, nu este totuși lipsită de incertitudini. Otrăvirea datelor este cea mai nouă amenințare la adresa instrumentelor AI și se pare că nu va dispărea. Amenințările devin din ce în ce mai sofisticate pe măsură ce tehnologia devine mai avansată, ceea ce poate avea un impact devastator asupra victimelor. Deși unele otrăviri de date sunt menite să protejeze artiștii și persoanele creative, altele sunt create cu intenții răuvoitoare. Pe măsură ce tehnologia devine integrată în viața noastră de zi cu zi, hackerii vor găsi modalități de a exploata vulnerabilitățile din sistemele AI și de a fura informații sensibile. Companiile se pot proteja prin efectuarea periodică de teste de penetrare și prin actualizarea cu cele mai recente informații referitoare la amenințările inteligenței artificiale.

Socials