banner

Notizia

Aug 08, 2023

Le agenzie governative sfruttano strumenti di intelligenza artificiale e modelli linguistici di grandi dimensioni

L’intelligenza artificiale (AI) e le tecnologie di apprendimento automatico si stanno espandendo nelle applicazioni governative mentre le agenzie iniziano a utilizzare le potenti risorse per compiere le loro missioni.

Sebbene i modelli linguistici di grandi dimensioni (LLM) come ChatGPT, OpenAI e Meta possano essere preziosi, i funzionari delle agenzie hanno affermato di non essere in grado di utilizzare i modelli su larga scala a causa di problemi di sicurezza.

"I modelli sono così grandi che portarli all'interno del nostro ambiente sicuro è probabilmente un costo proibitivo e inoltre la società non ci ha dato accesso ai modelli stessi", ha affermato il tenente colonnello Joseph Chapa, capo dei dati del dipartimento dell'aeronautica statunitense e Ufficiale AI, durante il Summit AI di ATARC mercoledì.

Chapa ha affermato che i modelli linguistici di grandi dimensioni non sono attualmente certificati per il livello di dati delle agenzie, quindi sono in vigore diverse restrizioni.

"Tutto ciò che facciamo con i sistemi deve essere completamente non classificato e a livello non sensibile", ha affermato Chapa.

Ma Chapa ha affermato che l'agenzia spera che modelli open source più piccoli forniscano strumenti sicuri per i dati classificati.

Nel frattempo, le agenzie stanno anche lavorando internamente per combattere i problemi di sicurezza e creare un ambiente sicuro per i dati. L’anno scorso, ad esempio, la Guardia Costiera degli Stati Uniti ha creato un ramo di dati climatici che si concentra sulla costruzione di nuove infrastrutture per eseguire applicazioni AI e LLM.

“Quello che trovo più emozionante in questo momento è che siamo un po’ in ritardo sulla partita. Ma non abbiamo nemmeno dovuto imparare tutte le lezioni apprese dai primi utilizzatori”, ha affermato Jonathan White, capo del settore Cloud e dati della Guardia costiera, durante il vertice.

White ha affermato che i modelli linguistici di grandi dimensioni sono solo una fetta della torta dell’intelligenza artificiale e che l’agenzia è estremamente “curiosa dell’intelligenza artificiale” perché capisce quanto sarà ingegnosa la tecnologia.

“Con una forza lavoro limitata, è estremamente difficile collocare le persone sempre nei posti giusti, poi abbiamo molte politiche, regolamenti, regole e tutto il resto che va di pari passo con queste missioni. Non sarebbe fantastico se potessimo avere uno strumento in grado di ottenere una risposta alla tua domanda relativa a tali politiche e regolamenti?" White ha spiegato. "Se sono nel bel mezzo di un'ispezione o di un avvertimento [e] hanno bisogno di porre una domanda, non sarebbe fantastico avere un assistente digitale che fornisca le informazioni di cui hanno bisogno per condurre tale ispezione."

Tuttavia, gli esperti hanno affermato di non poter fare affidamento interamente sulla tecnologia perché deve esserci un essere umano nel circuito per evitare errori.

“Questo non è diverso dal modo in cui conduciamo gli affari in generale. Quando creiamo un nuovo progetto, dobbiamo avere dei revisori, quando si fa qualsiasi tipo di ricerca ci sono dei revisori della ricerca", ha affermato David Na, responsabile della NASA Cloud AIML Foundations durante il summit. "Abbiamo bisogno di revisori per il contenuto che viene generato da questi grandi modelli linguistici”.

Poiché le agenzie governative trovano valore nei grandi modelli linguistici, Chapa ha affermato di essere consapevoli che le sfide potrebbero persistere. "So che le persone utilizzano questi modelli per conto proprio: ad un certo punto ci saranno degli errori o delle fughe di notizie", ha osservato.

Ma Chapa ha affermato che il miglior utilizzo dei modelli di generazione del testo è quando le informazioni di base sono già note, quindi è facile convalidare i fatti.

“Sarà allettante per gli analisti voler utilizzare lo strumento per ottenere informazioni dettagliate sul mondo. E non sto dicendo che non dovremmo farlo. Sto dicendo che dovremmo riconoscere che se vogliamo utilizzare questi strumenti in tale veste, dobbiamo costruire uno strato istituzionale di verifica dei fatti oltre a ciò", ha detto Chapa.

Nonostante le sfide che i grandi modelli linguistici possono creare, i funzionari dell’agenzia hanno affermato di essere entusiasti dell’esperienza di ricerca migliorata, dell’accessibilità dei dati e delle altre possibilità che gli strumenti di intelligenza artificiale forniranno.

CONDIVIDERE