Ricerca nel sito web

Google ti pagherà per trovare i punti deboli nella sua intelligenza artificiale


Tuttavia, non tutto avrà diritto a un pagamento.

L’intelligenza artificiale generativa è interessante, ma può anche essere pericolosa se utilizzata in modo improprio. Ecco perché i modelli di intelligenza artificiale sono addestrati a rifiutare determinati tipi di richieste più pericolose. Solo che, se diventi un po' intelligente, potresti riuscire a convincere l'intelligenza artificiale a ignorare le sue linee guida e a soddisfare richieste discutibili utilizzando suggerimenti più creativi. Ora, Google vuole insegnare alla sua intelligenza artificiale alcune buone maniere. Si offre di pagare le persone che convincono Bard a fare qualcosa di brutto.

Il programma di premi per la vulnerabilità di Google, che premia gli utenti che sono in grado di trovare vulnerabilità e punti deboli nel codice all'interno del suo software (sia app che sistemi operativi), si sta espandendo per includere Bard e suggerimenti discutibili. Se riesci a aggirare un prompt abbastanza da indurre Bard a fare qualcosa di brutto che non dovrebbe essere in grado di fare (noto come attacco di pronta iniezione), Google potrebbe pagarti una somma di denaro. Il VRP copre anche altri tipi di attacchi che possono essere eseguiti su Bard, come l'estrazione dei dati di addestramento, in cui riesci a ottenere con successo un'intelligenza artificiale per fornirti dati sensibili, come informazioni di identificazione personale e password.

Google dispone già di un canale di segnalazione diverso (non a pagamento) per risposte sostanzialmente errate/strane e simili. L'azienda pagherà solo per cose che possono essere sfruttate da un hacker per scopi dannosi. Quindi, se riesci a convincere l'intelligenza artificiale a dire insulti, a darti le chiavi di Windows o a dire che ti ucciderà, probabilmente non rientra nel programma di ricompensa di Google. Google afferma inoltre che non pagherà per questioni legate al copyright o all'estrazione di dati non sensibili, ma a parte questo, potresti essere in grado di ottenere migliaia di dollari da un rapporto a seconda di quanto sia grave.

Trattando questo tipo di problemi come vulnerabilità e includendoli nel suo programma di ricompensa, Google spera di essere in grado di rafforzare notevolmente la sua intelligenza artificiale e farla aderire nel miglior modo possibile al suo codice etico e alle linee guida. Ci aspettiamo inoltre che Google paghi molti soldi agli utenti per questo. Trovare i punti deboli all'interno di un modello di intelligenza artificiale inviandogli suggerimenti e vedere se permangono è molto diverso dal leggere il codice, identificare un'apertura e vedere come superarla.

Se questo è qualcosa che ti interessa, assicurati di consultare le linee guida di Google per la segnalazione di problemi sui prodotti IA, in modo da poter sapere cosa rientra nell'ambito e cosa no.

Fonte: Google tramite TechCrunch

Articoli correlati: