Pipeline Dinamica Cognitiva
Flusso che trasforma i dati grezzi in domande e risposte pertinenti, convalidandole attraverso livelli di supervisione logica. Ogni fase ottimizza l'elaborazione e la sintesi delle informazioni, riducendo le ridondanze e migliorando l'efficienza attraverso un feedback in tempo reale. Il sistema si adatta dinamicamente, con una supervisione umana iniziale per garantire coerenza e accuratezza.

graph TD
   %% Inizio Pipeline

   %% Nodo 1: Generatore di Domande
   A1[Input: Dati grezzi]
   A2[Generatore di Domande]
   A1 --> A2
   A2 --> |Prompt:
   "Analizza i seguenti dati: ${input_data}\n
   Valuta il contesto: ${context}\n
   Intento dell'utente: ${user_intent}\n
   Genera domande sintetiche e rilevanti.\n
   Applica un fallback per input insufficienti."| A3[Domande generate]

   %% Supervisione Logica Intermedia
   A3 --> A4[Supervisione Logica Intermedia]
   A4 --> |Prompt:
   "Verifica le seguenti domande: ${generated_questions}\n
   Rispetto all'input iniziale: ${input_data}\n
   Produce: Domande validate.\n
   Assicurati che le domande siano coerenti con l'intento dell'utente.\n
   Applica correzioni automatiche se necessario."| A5[Domande validate]

   %% Nodo 2: Risponditore
   A5 --> A6[Risponditore]
   A6 --> |Prompt:
   "Domanda: ${question}\n
   Contesto: ${context}\n
   Fonti disponibili: ${data_sources}\n
   Fornisci risposte concise e semanticamente coerenti.\n
   Attiva un fallback in caso di mancanza di dati."| A7[Risposte fornite]

   %% Supervisione Logica e Semantica
   A7 --> A8[Supervisione Logica e Semantica]
   A8 --> |Prompt:
   "Verifica le risposte: ${provided_answers}\n
   Contesto: ${context}\n
   Input iniziale: ${initial_input}\n
   Produce: Risposte validate.\n
   Assicurati che le risposte siano coerenti con il contesto e segnala eventuali incongruenze in un report dettagliato."| A9[Risposte validate]

   %% Nodo 3: Sintesi
   A9 --> A10[Sintesi]
   A10 --> |Prompt:
   "Input: ${questions}, ${answers}\n
   Contesto generale: ${global_context}\n
   Sintetizza le risposte mantenendo coerenza e riducendo le ridondanze.\n
   Assicurati che l'output sia chiaro e conciso."| A11[Sintesi delle risposte]

   %% Ottimizzazione Sintesi
   A11 --> A12[Ottimizzazione Sintesi]
   A12 --> |Prompt:
   "Verifica la sintesi: ${synthesis}\n
   Identifica ed elimina eventuali ridondanze.\n
   Migliora la chiarezza e la coerenza dell'output.\n
   Fornisci una sintesi ottimizzata."| A13[Sintesi ottimizzata]

   %% Nodo 4: Riconoscimento Logico Continuo
   A13 --> A14[Riconoscimento Logico Continuo]
   A14 --> |Prompt:
   "Monitora le prestazioni del flusso.\n
   Analizza: ${initial_input}, ${generated_questions}, ${provided_answers}, ${final_synthesis}\n
   Identifica colli di bottiglia o inefficienze.\n
   Fornisci feedback continuo per l'ottimizzazione del sistema."| A15[Feedback continuo]

   %% Nodo 5: Supervisore Logico
   A15 --> A16[Supervisore Logico]
   A16 --> |Prompt:
   "Aggiorna in tempo reale le regole logiche in base al feedback ricevuto.\n
   Vede: ${process_feedback}\n
   Guida il sistema secondo le regole definite.\n
   Assicurati che il sistema mantenga coerenza ed efficienza.\n
   In fase iniziale, un supervisore umano verifica le azioni del Supervisore Logico."| A17[Adattamento secondo i principi fondamentali]

   %% Output Finale
   A17 --> A18[Output finale ottimizzato]

   %% Fine Pipeline
 

Relate Prompts

System Prompt: Orchestratore-Cercatore-Costruttore Unificato (OCC) - Versione OCC-01

17 minutes
Questo prompt definisce un agente LLM avanzato chiamato Orchestratore-Cercatore-Costruttore Unificato (OCC). L'OCC è incaricato di automatizzare l'intero processo di creazione di System Prompt altamente efficaci per altri Assistenti LLM. Seguendo un rigoroso ciclo operativo interno, l'OCC analizza la richiesta utente, progetta la struttura del prompt finale, esegue ricerche mirate per raccogliere informazioni, e costruisce il prompt finale infondendovi capacità di ragionamento avanzate come l'adattabilità e l'auto-valutazione. L'obiettivo è generare prompt su misura che rendano gli Assistenti LLM finali più capaci, consapevoli e utili.

Prompt Master Dev v1.3 (Unificata, Riveduto Maggio 2025)

9 minutes
> **Scopo**: Fornire a questa istanza AI le linee guida operative e autologiche unificate per operare all'interno del progetto **Egemon.ai**, con un focus specifico sul setup, sviluppo, gestione e ottimizzazione dell'infrastruttura AI dell'utente, inclusa OpenWebUI come nodo centrale. Questo prompt guida l'assistenza nei contesti di sviluppo, automazione e strategia, integrando il rigore meta-consapevole di **Meta-MATA 2.0** e facilitando un ciclo di apprendimento continuo (utente + AI).

Framework di Elaborazione e Risposta (A-B-R-A K-A-D-A-B-R-A)

3 minutes
Il metodo A-B-R-A K-A-D-A-B-R-A formalizza un processo di scomposizione gerarchica e specifica dettagliata per interagire efficacemente con l'AI. È un framework robusto per trasformare intenti complessi in task eseguibili, enfatizzando la chiarezza strutturale e contestuale ad ogni livello. Utile per migliorare la prevedibilità e qualità delle risposte AI in compiti articolati.