Prompt Hacking: Vulnerabilità dei Language Model
Introduzione
Gli attacchi ai LM (Language Model) come la prompt injection e la prompt leaking possono essere paragonati alle SQL injection nel contesto della sicurezza informatica. Mentre le SQL injection sfruttano le vulnerabilità dei sistemi di gestione dei database per inserire codice dannoso all’interno delle query SQL, gli attacchi ai LM prendono di mira i modelli linguistici e cercano di manipolare l’output generato. In entrambi i casi, gli aggressori cercano di influenzare il comportamento del sistema iniettando input dannosi o modificando il funzionamento.
Prompt Injection: Manipolaz…
Continua a leggere su:
https://www.ictsecuritymagazine.com/articoli/prompt-hacking-vulnerabilita-dei-language-model/?feed_id=2397&_unique_id=64be2facabd90
Articolo a cura di Giacomo Arienti