Tag: Prompt Injection
Tecnica di attacco contro sistemi AI e Large Language Model che sfrutta input malevoli per manipolare il comportamento del modello, bypassare restrizioni, estrarre dati sensibili o eseguire azioni non autorizzate attraverso prompt crafting e context poisoning.
