Tag: Prompt Injection

Tecnica di attacco contro sistemi AI e Large Language Model che sfrutta input malevoli per manipolare il comportamento del modello, bypassare restrizioni, estrarre dati sensibili o eseguire azioni non autorizzate attraverso prompt crafting e context poisoning.