Corso per ottimizzare il deployment e il testing di modelli di linguaggio avanzati, normalizzare le interazioni API tra diversi modelli e integrare linguaggi flessibili per un controllo efficace dei prompt, con un focus sull’efficienza e la versatilità nell’utilizzo dei Large Language Models.
a chi è rivolto
Durata
argomenti
Introduzione ai Large Language Models (LLM): panoramica e contesto tecnologico attuale
Strategie di deployment ottimizzato per modelli di linguaggio avanzati
Tecniche di testing per garantire prestazioni e affidabilità dei LLM
Normalizzazione delle interazioni API tra diversi modelli per una comunicazione fluida e coerente
Integrazione di linguaggi flessibili per il controllo dei prompt e la gestione di contesti complessi
Ottimizzazione delle risposte del modello per migliorare qualità ed efficacia dei risultati
Best practice per un utilizzo efficiente e versatile dei LLM in ambienti produttivi
Use case utili con vari modelli
2° MODULO: OTTIMIZZAZIONE E MIGLIORAMENTO DELLE PRESTAZIONI IN DEPLOY E INTERAZIONI CON LLM
Il corso insegna a ottimizzare il deployment dei Large Language Models anche su ambienti locali solo CPU, mostrando tecniche per ridurre la perplexity in lunghe sessioni di chat, comprimere i prompt per gestire contesti complessi e abbattere costi operativi, aumentando al tempo stesso la velocità di elaborazione. Questo secondo modulo è adatto sia a chi ha solo basi di programmazione/IA sia a profili più esperti.
a chi è rivolto
Durata
argomenti
Deployment agile dei LLM anche in ambienti locali con sole CPU
Ottimizzazione del deployment per migliorare prestazioni ed efficienza
Gestione di contesti complessi riducendo costi operativi
Strategie per mantenere bassa la perplexity in lunghe sessioni di chat
Tecniche di compressione del prompt per velocizzare l’elaborazione e risparmiare risorse
Best practice per un utilizzo performante dei LLM in diversi scenari produttivi
3° MODULO: AGENTI E ASSISTENZA AI PER IL POTENZIAMENTO DI WORKFLOW E SISTEMI MULTI-AGENTE
Il corso mostra come agenti AI e sistemi multi-agente basati su LLM possano trasformare i workflow di analisi dati, gestire dati strutturati e interagire tra loro per migliorare le prestazioni, offrendo un approccio pratico all’integrazione di AI avanzate in applicazioni complesse.
a chi è rivolto
Durata
argomenti
Ruolo degli agenti AI nell’analisi dati e nell’automazione dei workflow
Utilizzo di assistenti AI per gestire dati strutturati e interagire con diverse fonti informative
Sviluppo di sistemi multi-agente basati su LLM
Sfruttamento dell’intelligenza emergente dei LLM per migliorare prestazioni e interazioni tra agenti
Implementazione pratica di agenti AI per ottimizzare processi di analisi dati
Integrazione di AI avanzate in applicazioni reali e sistemi complessi
4° MODULO: FRAMEWORKS INNOVATIVI PER L’INTEGRAZIONE DI ASSISTENTI AI E LLM
Il corso insegna strategie avanzate per integrare e ottimizzare assistenti AI e LLM, includendo collegamento di funzioni esterne tramite linguaggio naturale, creazione di assistenti personalizzati con gestione dello stato e uso di tecniche di Retrieval Augmented Generation per Q&A, fact checking e riduzione degli errori di interpretazione.