- Messaggi
- 1,116
- Reazioni
- 26
- Punteggio
- 68
Un nuovo studio condotto da Anthropic ha dimostrato che i Large Language Models possono essere compromessi con attacchi di data poisoning utilizzando una quantità minima di dati malevoli.
https://www.tomshw.it/business/bastano-250-documenti-per-bucare-unia
https://www.tomshw.it/business/bastano-250-documenti-per-bucare-unia