
Modelos de ML maliciosos aproveitam o formato de picles quebrados para evitar a detecção Recentemente, pesquisadores de segurança cibernética descobriram dois modelos de machine learning (ML) maliciosos na plataforma Hugging Face. Esses modelos exploraram uma técnica incomum envolvendo arquivos Pickle “quebrados” para evadir detecção. O caso, batizado de nullifAI, revela uma vulnerabilidade crítica no formato de...
Ler Mais