Grandi modelli linguistici come avvocati tributari questo articolo sull’IA esplora le capacità dei GML nell’applicare la legge fiscale

Grandi modelli linguistici come avvocati tributari questo articolo sull'IA esplora le capacità dei GML nella legge fiscale.

Si stanno facendo progressi nell’intelligenza artificiale. I Large Language Models (LLM) sono dove si stanno verificando rapidi sviluppi. I moderni LLM possono utilizzare strumenti, pianificare e superare prove standardizzate. Ma anche per i loro creatori, i LLM sono solo scatole misteriose. Non sanno molto su come pensano internamente e non possono prevedere come un LLM si comporterebbe in una nuova situazione. Prima che i modelli vengano utilizzati al di fuori dell’ambiente di ricerca, è buona pratica valutare le prestazioni del LLM su un lungo elenco di benchmark. Tuttavia, questi benchmark spesso devono riflettere attività del mondo reale che sono importanti per noi o che potrebbero essere state memorizzate dal LLM durante l’addestramento. I dati necessari per la valutazione delle prestazioni sono comunemente inclusi nei dataset utilizzati per l’addestramento dei LLM, che vengono frequentemente scaricati da internet.

L’incrocio potrebbe sovrastimare le prestazioni del modello, creando l’impressione di comprensione quando potrebbe essere solo riconoscimento semplice. Concentrano in particolare i loro sforzi di valutazione sulle competenze analitiche giuridiche dei LLM per tre motivi. In primo luogo, determinare quanto bene i LLM comprendono la legge può aiutare con la regolamentazione più generale dei LLM e dei sistemi automatizzati. Una strategia rilevante per la politica consiste nell’utilizzare il ragionamento giuridico e normativo nei LLM per l'”AI informata dal diritto” che si allinea con gli ideali sociali stabiliti attraverso procedure democratiche e di legiferazione. Questa strategia “Il diritto informa il codice” si basa sulla capacità dimostrata del processo democratico di produrre norme giuridiche flessibili come gli obblighi fiduciari attraverso la deliberazione e la litigazione iterative. L’idea è che insegnare ai sistemi di intelligenza artificiale lo spirito della legge possa aiutarli a prendere decisioni difendibili in situazioni sconosciute. Quando un sistema alimentato da LLM supporta un principio umano, questa capacità precoce di rilevare quando vengono violate le responsabilità fiduciarie potrebbe consentire implementazioni di intelligenza artificiale più sicure. In secondo luogo, sia attraverso l’auto-servizio che attraverso un avvocato qualificato, i LLM possono essere utilizzati come strumenti dalle persone per fornire servizi legali in modo più rapido ed efficace. I modelli possono essere più affidabili e preziosi se comprendono meglio la legge. I LLM possono aiutare in diverse attività, dalla previsione dei casi all’analisi dei contratti, democratizzando così l’accesso all’assistenza legale e riducendo i costi e la complessità per le persone che altrimenti potrebbero trovare difficile comprendere il sistema giuridico.

Data la natura delicata del lavoro giuridico, è necessario implementare determinate protezioni durante l’implementazione di questi modelli. Questo comporta un miglioramento della privacy dei dati, una riduzione dei pregiudizi, il rispetto della responsabilità delle scelte di questi modelli e la valutazione dell’applicabilità dei LLM per un caso d’uso specifico. Pertanto, sono necessarie valutazioni sistematiche. In terzo luogo, se i LLM hanno conoscenze giuridiche sufficienti, possono essere utilizzati dal governo, dalle persone e dagli studiosi per individuare contraddizioni giuridiche. I LLM possono migliorare l’efficacia complessiva e l’apertura dei governi. Ad esempio, i LLM spesso riescono a spiegare regole e regolamenti complessi in modo chiaro e comprensibile.

In futuro, i LLM potrebbero prevedere gli effetti probabili di nuove leggi o politiche. I LLM potrebbero individuare legislazioni potenzialmente “superate” o situazioni in cui la legge tace quando, in altri casi comparabili, il legislatore o gli enti regolatori forniscono indicazioni attraverso la scansione di enormi quantità di linguaggio giuridico e di relative implementazioni. In questa ricerca, ricercatori dell’Università di Stanford, dell’Università del Michigan, dell’Università di Washington, dell’Università della Southern California, della Northwestern Pritzker School of Law e del SimPPL indagano sulla creazione di LLM potenziata dal recupero utilizzando il testo del Codice degli Stati Uniti (una raccolta di leggi federali) e il Codice dei Regolamenti Federali degli Stati Uniti (CFR). Valutano la comprensione in evoluzione di un gruppo di LLM in materia di diritto fiscale. Hanno scelto il diritto fiscale per quattro motivi.

L’autorità giuridica nel diritto fiscale è principalmente contenuta in due fonti: i Regolamenti del Tesoro ai sensi del CFR e il Titolo 26 del Codice degli Stati Uniti (comunemente noto come Codice delle Entrate Interne). Questo contrasta con molte aree giuridiche in cui le dottrine sono distillate da più precedenti. Ciò ci consente di integrare il recupero del LLM utilizzando un universo predefinito di documenti potenzialmente pertinenti. In secondo luogo, molte leggi fiscali consentono risposte conclusive alle domande. Ciò ci consente di istituire flussi di lavoro di convalida automatica che siano coerenti. In terzo luogo, rispondere alle domande di diritto fiscale per un caso specifico richiede di solito più che leggere l’autorità giuridica pertinente; quindi, possiamo valutare le competenze dei LLM in un modo che si applica alla pratica del mondo reale.

In quarto luogo, il diritto fiscale ha un impatto considerevole sulle attività economiche quotidiane di praticamente ogni cittadino e azienda. Con l’aiuto di varie configurazioni sperimentali, compreso l’uso del solo LLM, l’integrazione del LLM con i testi giuridici sottostanti e varie tecniche di recupero (con confronti effettuati tra diversi metodi di recupero), valutiamo l’accuratezza delle risposte prodotte dai LLM su migliaia di domande di diritto fiscale. Abbiamo effettuato questi test su una serie di LLM, dai modelli più piccoli e più deboli fino al più grande modello moderno, il GPT-4 di OpenAI. Ogni LLM che abbiamo esaminato era all’avanguardia quando è stato reso disponibile.

Scoprono prove per lo sviluppo delle capacità di comprensione legale delle LLM, migliorando con ogni rilascio del modello mediante l’analisi dei risultati ottenuti su modelli sempre più grandi. Se la tecnologia continua a crescere rapidamente, potremmo presto assistere allo sviluppo di abilità legali di intelligenza artificiale sovrumane.