Retro-Ingegnerizzazione di uno Schema di Database GPT vs Bard vs LLama2 (Episodio 2)

Retro-Ingegnerizzazione di uno Schema di Database GPT vs Bard vs LLama2 (Episodio 2) L'evoluzione della tecnologia al servizio della bellezza e della moda

Nel mio articolo precedente, ho confrontato il modello GPT-4 con Bard. Ora Llama-2 entra in arena ed è alto memori di vedere come si comporta nei confronti dei suoi concorrenti!

Foto di Dustin Humes su Unsplash

L’iniziale (e finale) dataset

Come spiegato in questo primo articolo, inizieremo con un finto dataset generato dall’IA che contiene informazioni sui dipendenti.

Retro-ingegnerizzazione di uno schema di database e qualità dati: GPT vs. Bard

LLMs può retro-ingegnerizzare un dataset consolidato per progettare il database originale e suggerire i dati corrispondenti…

towardsdatascience.com

La tabella originale ha 11 colonne x 7688 righe ma limiteremo l’estrazione a un campione di 50 righe per adattarsi alle limitazioni di token correnti di LLMs.

Esempio dei dati sorgente (Immagine dell'autore)

(Nota: il notebook e la fonte dei dati sono disponibili alla fine dell’articolo)

Retro-ingenierizzazione del modello dei dati

L’idea qui è chiedere a ciascun LLM di analizzare questi dati di esempio e fornire alcune indicazioni su come potrebbe apparire il modello dei dati iniziale

Mantieniamo lo stesso prompt usato per GPT-4 e Bard:

Puoi: - individuare le colonne categoriche all'interno di questo dataset, così come quelle confidenziali - suggerire uno schema di database con diverse tabelle (presta attenzione a creare una tabella separata per i dati confidenziali) - per le tabelle con dati categorici, fornire lo script SQL per crearle, inclusi i loro contenuti (chiave e valori) - per le restanti tabelle, fornire lo script per crearne lo schema - per ogni colonna di ogni tabella, suggerire alcuni controlli sulla qualità dei dati. 

Ottimo! … Ma ora la domanda è “Dove posso testare Llama-2?”

Sono disponibili diverse opzioni:

  • La più ovvia (ma anche più complessa e costosa 💸) è ospitare il modello su un server dedicato nella tua architettura cloud. Questo è di solito…