Prompt engineering
Guida all’Ingegneria dei Prompt di OpenAI: Mastering ChatGPT per Applicazioni Avanzate

Comprendere l’Ingegneria dei Prompt
L’ingegneria dei prompt è l’arte e la scienza di creare input (prompt) per ottenere output desiderati da modelli di intelligenza artificiale come ChatGPT. È una competenza cruciale per massimizzare l’efficacia di questi modelli.
ChatGPT, costruito sulle architetture GPT-3 e GPT-4 di OpenAI, è avanzato notevolmente, diventando più rispondente e consapevole del contesto. Comprendere la sua evoluzione è fondamentale per padroneggiare l’ingegneria dei prompt.
Come un abile direttore d’orchestra che guida un’orchestra, l’ingegneria dei prompt ci consente di dirigere questi modelli per eseguire compiti complessi, dalla creazione di documenti tecnici dettagliati alla generazione di contenuti creativi e coinvolgenti. Questa guida ti condurrà attraverso strategie e tattiche che trasformano la tua interazione con l’AI, elevandola da scambi basilari a conversazioni sfumate e significative.
Considera la differenza tra chiedere “Come posso aggiungere numeri in Excel?” e “Come posso sommare automaticamente una colonna di importi in dollari in Excel, con i totali visualizzati a destra in una colonna ‘Totale’?” Il secondo prompt, più dettagliato, lascia meno spazio all’interpretazione dell’AI, portando a una risposta più precisa e utile. Allo stesso modo, comprendere l’uso di persona, delimitatori e istruzioni passo-passo può profondamente impattare sulla qualità dell’output dell’AI, specialmente per compiti complessi.
Questa guida all’ingegneria dei prompt non coprirà solo gli aspetti teorici, ma fornirà anche esempi pratici e hands-on. Imparerai come utilizzare efficacemente tattiche come fornire testi di riferimento per guidare l’AI lontano dalle invenzioni, o come dividere compiti complessi in sottocompiti più semplici per ottenere risultati più precisi.
1. Chiarezza e Dettaglio
Creare prompt efficaci per modelli di intelligenza artificiale come GPT-4 richiede una combinazione di precisione, contesto e chiarezza. La differenza tra un prompt mal creato e uno ben pensato può essere la differenza tra una risposta vaga e generica e una risposta altamente rilevante e specifica.
Esempio 1: Sfruttare la Comprensione del Linguaggio di ChatGPT per Query Tecniche
- Prompt Inefficace: “Come posso risolvere un bug nel mio codice?”
- Output AI: “Per risolvere un bug nel tuo codice, devi prima identificare il bug, capire perché sta succedendo, e poi modificare il codice per correggerlo.”
- Query Tecnica Efficace: “Sto codificando in Python e sto ottenendo un ‘KeyError’ quando provo ad accedere a un dizionario. Il codice è: [snippet di codice]. Cosa sta causando questo errore e come posso risolverlo?”
- Output AI: “Il ‘KeyError’ nel tuo codice Python è probabilmente dovuto al tentativo di accedere a una chiave nel dizionario che non esiste. Ecco come puoi modificare il tuo codice per gestire questo errore: [snippet di codice modificato con spiegazione].”
Esempio 2: Scrittura Creativa con Imitazione di Stile
- Prompt Inefficace: “Scrivi una storia breve.”
- Output AI: “C’era una volta, in una terra lontana, un regno che affrontava un grande pericolo…”
- Prompt di Imitazione di Stile Efficace: “Scrivi una storia breve nello stile di Ernest Hemingway, concentrandoti su una conversazione tra due vecchi amici che si incontrano inaspettatamente.”
- Output AI: “Il sole batteva sulla strada polverosa dove Jack e Tom, due vecchi amici, si incontrarono per caso. ‘È passato molto tempo,’ disse Jack, la sua voce così secca come l’aria. ‘Sì, da quando la guerra,’ rispose Tom. [La storia continua nello stile conciso e basato sul dialogo di Hemingway].”
Esempio 3: Consigli di Viaggio
- Prompt Inefficace: “Cosa devo fare a Parigi?”
- Output AI: “A Parigi, puoi visitare luoghi famosi come la Torre Eiffel, il Louvre e la Cattedrale di Notre-Dame.”
- Prompt Efficace: “Sto visitando Parigi per tre giorni quest’estate con un focus su arte e storia. Puoi suggerirmi un itinerario dettagliato?”
- Output AI: “Giorno 1: Visita il Louvre al mattino, seguita da una passeggiata fino alla Cattedrale di Notre-Dame. [Segue un itinerario più dettagliato].”
Intuizioni per Creare Prompt Migliori
- Specificità: Sii il più specifico possibile. Più il tuo prompt è dettagliato, più la risposta sarà personalizzata.
- Informazioni di Contesto: Includi tutte le informazioni di contesto rilevanti. Ciò aiuta l’AI a comprendere esattamente la natura della tua richiesta.
- Obiettivo Chiaro: Stabilisci chiaramente cosa ti aspetti come output. Sia che si tratti di una ricetta, di un piano di viaggio o di una soluzione tecnica, rendi chiaro il tuo obiettivo.
- Evita l’Ambiguità: I prompt ambigui portano a risposte generiche. Chiarisci la tua richiesta per ottenere risposte precise.
- Utilizza Format Conosciuti: Se applicabile, chiedi informazioni in un formato specifico, come una lista, una guida passo-passo o un diagramma.
2. Migliorare le Risposte dell’AI con Riferimenti
L’uso strategico di testi di riferimento nell’ingegneria dei prompt può elevare notevolmente la qualità e l’accuratezza delle risposte dei modelli di intelligenza artificiale come GPT-4. Fornendo informazioni rilevanti e attendibili insieme alla tua query, puoi guidare l’AI a comporre risposte basate sul materiale fornito, rendendole più affidabili e accurate nel contesto.
Esempio 1: Spiegazione Scientifica
- Prompt Convenzionale: “Come si forma un buco nero?”
- Output AI: “Un buco nero si forma dai resti di una stella massiccia che muore in un’esplosione di supernova. Se la massa del nucleo è sufficiente, collassa sotto la sua stessa gravità in un buco nero.”
- Prompt Migliorato con Testo di Riferimento:
- Testo di Riferimento Fornito: “[Articolo scientifico sull’evoluzione stellare e i buchi neri]”
- Prompt: “Usando le informazioni dall’articolo scientifico fornito, spiega il processo di formazione di un buco nero.”
- Output AI: “Sulla base dell’articolo scientifico fornito, un buco nero si forma quando una stella massiccia esaurisce il suo carburante nucleare e il suo nucleo collassa. L’articolo dettaglia: [‘Estratti rilevanti dall’articolo’].”
Esempio 2: Interpretazione Legale
- Prompt Convenzionale: “Quali sono le implicazioni legali del furto di proprietà intellettuale?”
- Output AI: “Il furto di proprietà intellettuale può portare a conseguenze legali come cause, multe e, in casi gravi, carcere.”
- Prompt Migliorato con Testo di Riferimento:
- Testo di Riferimento Fornito: “[Articolo di rivista legale sulla legge della proprietà intellettuale]”
- Prompt: “Facendo riferimento all’articolo di rivista legale fornito, spiega le specifiche implicazioni legali del furto di proprietà intellettuale.”
- Output AI: “L’articolo di rivista legale afferma che il furto di proprietà intellettuale può risultare in azioni legali, danni statutari e possibili accuse penali. In particolare, l’articolo menziona: [‘Citazioni dirette dall’articolo’].”
Intuizioni per l’Uso di Testi di Riferimento nei Prompt
- Seleziona Testi Rilevanti: Scegli testi di riferimento che siano direttamente rilevanti per la tua query.
- Specificazione del Prompt: Istruisce chiaramente l’AI a utilizzare il testo di riferimento fornito per comporre la sua risposta.
- Citazioni: Chiedi all’AI di citare parti specifiche del testo di riferimento nella sua risposta per accuratezza e verifica.
- Gestione di Informazioni Insufficienti: Istruisce l’AI a dichiarare chiaramente se il testo fornito non contiene le informazioni necessarie per rispondere alla domanda.
3. Semplificare Compiti Complessi con la Divisione in Sottocompiti
La chiave per gestire efficacemente compiti complessi con modelli di intelligenza artificiale come GPT-4 sta nel dividerli in sottocompiti più semplici. Questo approccio non solo semplifica il processo, ma migliora anche l’accuratezza e la rilevanza delle risposte dell’AI. Di seguito, dimostriamo questa strategia attraverso esempi specifici, evidenziando i vantaggi dell’uso della classificazione di intenti, tecniche di riassunto e conversazioni strutturate per query complesse.
Esempio 1: Query di Servizio Clienti
- Approccio Inefficace: Un singolo prompt che chiede assistenza generale.
- Prompt Utente: “Sto avendo problemi con il mio account.”
- Output AI: “Potresti per favore specificare la natura del problema con il tuo account?”
- Approccio Efficace: Classificare la query in categorie e fornire assistenza mirata.
- Prompt Utente: “Sto avendo problemi ad accedere al mio account.”
- Direttiva AI: “Classifica la query in ‘Gestione Account’, poi offri passaggi specifici per la risoluzione dei problemi di accesso.”
- Output AI: “Sembra che tu stia avendo problemi ad accedere al tuo account. Iniziamo resettando la tua password. [Segue una serie di passaggi dettagliati].”
Esempio 2: Riassunto di un Lungo Documento
- Approccio Inefficace: Tentare di riassumere un documento lungo in un’unica query.
- Prompt Utente: “Riassumi per me questo libro di 300 pagine.”
- Output AI: “Mi dispiace, ma non posso elaborare documenti più lunghi della mia finestra di contesto.”
- Approccio Efficace: Riassumere il documento pezzo per pezzo e costruire un riassunto completo in modo ricorsivo.
- Direttiva AI: “Riassumi ogni capitolo separatamente, poi crea un riassunto dei riassunti, procedendo in modo ricorsivo.”
- Prompt Utente: “Riassumi il capitolo 1 di questo libro.”
- Output AI: “Riassunto del Capitolo 1: [Breve riassunto del capitolo 1].”
- Processo Continuato: Lo stesso processo viene applicato per ogni capitolo, seguito da un riassunto finale che combina tutti i riassunti individuali.
Vantaggi della Divisione in Sottocompiti e Ingegneria dei Prompt Contestuali
- Aumento dell’Accuratezza: Concentrandosi su aspetti specifici di un compito complesso, l’AI può fornire risposte più accurate e rilevanti.
- Miglior Efficienza: La divisione dei compiti li rende più gestibili e riduce la probabilità di errori o output non rilevanti.
- Migliore Esperienza Utente: Gli utenti ricevono indicazioni mirate e passo-passo, che sono più utili delle risposte generiche.
- Efficienza dei Costi: I prompt più piccoli e mirati possono essere più efficienti in termini di costo rispetto a prompt più grandi e complessi.
4. Dare a GPT il Tempo di “Pensare”
La strategia di dare ai modelli il tempo di “pensare” e di dividere i compiti complessi in passaggi gestibili migliora notevolmente la qualità delle risposte dei modelli di intelligenza artificiale come GPT-4.
Esempio 1: Valutazione di un Problema Matematico
- Approccio Inefficace: Chiedere direttamente al modello di valutare la soluzione di uno studente.
- Prompt Utente: “È corretta la soluzione dello studente per questo problema matematico?”
- Output AI: “La soluzione dello studente sembra essere corretta/errata.”
- Approccio Efficace: Istruire il modello a lavorare sulla sua soluzione prima di valutare il lavoro dello studente.
- Prompt Utente: “Prima, risolvi questo problema matematico. Poi, confronta la tua soluzione con quella dello studente e valuta la sua correttezza.”
- Output AI: “La mia soluzione: [Soluzione dettagliata]. Confrontandola con la soluzione dello studente, ho trovato un errore nel loro calcolo di [parte specifica]. L’approccio corretto dovrebbe essere [metodo corretto].”
Esempio 2: Analisi di Documenti
- Approccio Inefficace: Tentare di analizzare un documento lungo in una sola query.
- Prompt Utente: “Riassumi i punti chiave di questo documento.”
- Output AI: “Mi dispiace, ma non posso elaborare documenti di questa lunghezza.”
- Approccio Efficace: Estrazione sequenziale di estratti e query di follow-up per un’analisi completa.
- Prompt Utente: “Estrai estratti rilevanti da questo documento relativi a [argomento specifico].”
- Output AI: “Estratto 1: [Passaggio rilevante]. Estratto 2: [Altro passaggio rilevante].”
- Prompt Utente di Follow-up: “Ci sono altri estratti rilevanti? Assicurati che contengano il contesto completo.”
- Output AI: “Estratto Aggiuntivo: [Ulteriore passaggio rilevante].”
Vantaggi e Intuizioni
- Profondità di Analisi: Lavorando sulle soluzioni o analisi prima, l’AI può fornire valutazioni più accurate e approfondite.
- Apprendimento Guidato: Nelle situazioni di tutoraggio, l’uso del monologo interiore e dei suggerimenti incoraggia gli studenti ad arrivare alle soluzioni in modo indipendente, migliorando la loro esperienza di apprendimento.
- Copertura Completa: Per l’analisi dei documenti, gli approcci sequenziali e ricorsivi garantiscono una copertura completa senza perdere dettagli importanti.
- Evitare Pregiudizi: Generando la sua soluzione prima, l’AI evita pregiudizi che potrebbero sorgere dalla valutazione diretta di una risposta data.
5. Sfruttare Strumenti Esterni
L’integrazione di strumenti e risorse esterni nelle interazioni con l’AI può notevolmente migliorare l’accuratezza e la rilevanza delle risposte generate da modelli come GPT-4. Questa sezione dimostra l’uso della ricerca basata su embedding per il recupero di conoscenze, l’esecuzione di codice per calcoli precisi e le chiamate a funzioni per aumentare le capacità dei modelli di AI.
Esempio 1: Calcoli Precisi con Esecuzione di Codice
- Senza Esecuzione di Codice: Affidarsi esclusivamente alle capacità di calcolo del modello.
- Prompt Utente: “Calcola la radice quadrata di 529.”
- Output AI: “La radice quadrata di 529 è approssimativamente 23.”
- Con Esecuzione di Codice: Assicurare la precisione nei calcoli.
- Prompt Utente: “Calcola la radice quadrata di 529.”
- Direttiva AI: “Scrivi ed esegui codice Python per calcolare questo.”
- Output AI: “
python import math math.sqrt(529)La radice quadrata di 529 è esattamente 23.”
Esempio 2: Utilizzo di Chiamate API per Interazioni Dinamiche
- Senza Chiamate API: Limitato a risposte statiche e pre-programmate.
- Prompt Utente: “Invia un promemoria al mio amico riguardo al nostro incontro di domani.”
- Output AI: “Promemoria: Non dimenticare di inviare un messaggio al tuo amico riguardo all’incontro di domani.”
- Con Chiamate API: Interagire con sistemi esterni per azioni in tempo reale.
- Prompt Utente: “Invia un promemoria al mio amico John riguardo al nostro incontro di domani.”
- Direttiva AI: “Usa l’API di messaggistica per inviare un promemoria.”
- Output AI: “
python import message message.write(to='John', message='Hey, ricorda il nostro incontro di domani!')Promemoria inviato a John riguardo all’incontro di domani.”
Vantaggi e Intuizioni
- Base di Conoscenze Espansa: Utilizzando la ricerca basata su embedding, l’AI può accedere e incorporare una vasta gamma di informazioni aggiornate, migliorando la rilevanza e l’accuratezza delle sue risposte.
- Precisione nei Calcoli: L’esecuzione del codice consente all’AI di eseguire calcoli matematici precisi, particolarmente utili in contesti tecnici o scientifici.
- Capacità Interattive: Le chiamate API abilitano l’AI a interagire con sistemi esterni, facilitando azioni nel mondo reale come l’invio di messaggi o l’impostazione di promemoria.
6. Test Sistemático
Il test sistemático, o procedure di valutazione, è cruciale nel determinare l’efficacia dei cambiamenti nei sistemi di intelligenza artificiale. Questo approccio implica il confronto degli output del modello con un set di standard predeterminati o “risposte gold-standard” per valutare l’accuratezza.
Esempio 1: Identificazione di Contraddizioni nelle Risposte
- Scenario di Test: Rilevamento di contraddizioni nella risposta del modello rispetto alle risposte degli esperti.
- Direttiva del Sistema: Determinare se la risposta del modello contraddice alcuna parte della risposta dell’esperto.
- Input Utente: “Neil Armstrong divenne la seconda persona a camminare sulla luna, dopo Buzz Aldrin.”
- Processo di Valutazione: Il sistema controlla la coerenza con la risposta dell’esperto che afferma che Neil Armstrong fu la prima persona sulla luna.
- Output del Modello: La risposta del modello contraddice direttamente la risposta dell’esperto, indicando un errore.
Esempio 2: Confronto dei Livelli di Dettaglio nelle Risposte
- Scenario di Test: Valutazione se la risposta del modello si allinea, supera o è inferiore alla risposta dell’esperto in termini di dettaglio.
- Direttiva del Sistema: Confronta la profondità di informazioni tra la risposta del modello e la risposta dell’esperto.
- Input Utente: “Neil Armstrong camminò per la prima volta sulla luna il 21 luglio 1969, alle 02:56 UTC.”
- Processo di Valutazione: Il sistema valuta se la risposta del modello fornisce più, pari o meno dettagli rispetto alla risposta dell’esperto.
- Output del Modello: La risposta del modello fornisce ulteriori dettagli (l’ora esatta), che si allineano con e estendono la risposta dell’esperto.
Vantaggi e Intuizioni
- Accuratezza e Affidabilità: Il test sistemático assicura che le risposte del modello di AI siano accurate e affidabili, specialmente quando si tratta di informazioni fattuali.
- Rilevamento degli Errori: Aiuta nell’identificazione di errori, contraddizioni o incoerenze nelle risposte del modello.
- Garanzia della Qualità: Questo approccio è essenziale per mantenere alti standard di qualità nel contenuto generato dall’AI, particolarmente in contesti educativi, storici o altri contesti sensibili ai fatti.
Conclusione e Messaggio di Chiusura
Attraverso gli esempi e le strategie discusse, abbiamo visto come la specificità nei prompt possa cambiare drasticamente l’output, e come la divisione di compiti complessi in sottocompiti più semplici possa rendere sfide impegnative gestibili. Abbiamo esplorato il potere degli strumenti esterni nell’aumentare le capacità dell’AI e l’importanza del test sistemático per assicurare l’affidabilità e l’accuratezza delle risposte dell’AI. Visita la Guida all’Ingegneria dei Prompt di OpenAI per conoscenze fondamentali che complementano la nostra esplorazione approfondita di tecniche e strategie avanzate per ottimizzare le interazioni con l’AI.












