Google plătește până la 30.000 de dolari pentru descoperirea vulnerabilităților în produsele sale de inteligență artificială
Google a lansat un program global prin care îi invită pe utilizatori să testeze rezistența și limitele tehnologiilor sale bazate pe inteligență artificială. Noua inițiativă, denumită „AI Vulnerability Reward Program”, oferă recompense substanțiale – de până la 30.000 de dolari – pentru cei care identifică breșe grave de securitate.
O strategie pentru consolidarea securității cibernetice
Prin acest program, compania americană își propune să își întărească infrastructura digitală și să demonstreze că modelele sale AI pot rezista inclusiv în fața atacurilor sofisticate. Reprezentanții Google subliniază că intenția este de a diferenția vulnerabilitățile specifice inteligenței artificiale de erorile clasice de software, creând un cadru de testare transparent și predictibil.
„Programul clarifică tipurile de probleme eligibile și separă erorile legate de AI de cele tradiționale”, au explicat Jason Parsons și Zak Bennett, membri ai echipei de securitate a companiei.
Ce produse intră în vizor
Programul acoperă principalele servicii și aplicații AI din ecosistemul Google, de la Gemini și Google Search, până la instrumentele din Workspace. Utilizatori obișnuiți, specialiști în securitate și așa-numiții „vânători de bug-uri” sunt încurajați să trimită rapoarte despre vulnerabilități care ar putea permite accesul la date sensibile, manipularea algoritmilor sau preluarea neautorizată a conturilor.
Recompensele sunt stabilite în funcție de gravitatea riscului descoperit:
-
până la 20.000 de dolari pentru vulnerabilități standard,
-
până la 30.000 de dolari pentru cazuri excepționale, cu impact potențial global.
Riscurile ascunse ale inteligenței artificiale
Inteligența artificială este deja integrată în majoritatea produselor Google, însă odată cu această expansiune cresc și pericolele. Un exemplu îl constituie așa-numitele „prompt injection attacks” – tehnici prin care atacatorii reușesc să manipuleze modelele AI astfel încât să divulge informații confidențiale sau să execute instrucțiuni contrare regulilor impuse de dezvoltatori.
Prin deschiderea acestui program, Google mizează pe colaborarea directă cu comunitatea globală pentru a anticipa și bloca din timp astfel de scenarii.