- Messaggi
- 970
- Reazioni
- 25
- Punteggio
- 62
Un nuovo studio condotto da Anthropic ha dimostrato che i Large Language Models possono essere compromessi con attacchi di data poisoning utilizzando una quantità minima di dati malevoli.
https://www.tomshw.it/business/bastano-250-documenti-per-bucare-unia
https://www.tomshw.it/business/bastano-250-documenti-per-bucare-unia