Skip to main content
Nerd logo

We promote learning and collaboration within the technological and scientific community

Since 2014, we have been organizing a world-class event with 100% free entry.

This isn't the hack you are looking for: defending against prompt injection and other AI mind tricks

26/09 16:00HS @ AuditorioTRACK SECURITY

This isn't the hack you are looking for: defending against prompt injection and other AI mind tricks

Speaker: Daniel Ciolek

En una galaxia no tan lejana, la inteligencia artificial (AI) ha infiltrado casi todos los aspectos de nuestro universo digital. A medida que ampliamos los límites de lo que estos sistemas inteligentes pueden hacer, también abrimos inadvertidamente la puerta a una gran variedad de amenazas de seguridad que son poco comprendidas y a menudo pasadas por alto. Esta charla se explora las vulnerabilidades que afectan a los modelos de AI generativos, incluyendo prompt injection, jailbreaking y data poisoning, y explora estrategias prácticas para fortalecer los sistemas contra estos ataques. El prompt injection es una amenaza sutil pero potente, donde se diseñan inputs maliciosos para engañar a la AI y producir resultados no deseados. Exploraremos cómo operan estos inputs, demostraremos su posible impacto y discutiremos medidas para prevenirlo. El jailbreaking busca eludir las restricciones operativas establecidas por los desarrolladores para explotar los sistemas de AI más allá de su propósito previsto. Describiremos cómo los atacantes evitan las restricciones de la AI y los pasos que se pueden tomar para asegurar los sistemas contra tales explotaciones. El data poisoning, implica manipular los datos usados por la AI para inducir una toma de decisiones defectuosa. Esto puede llevar a resultados sesgados o distorsionados. Examinaremos cómo ocurre esto e introduciremos técnicas para sanitizar los datos y validar los modelos de AI para asegurar su integridad y precisión. A lo largo de la charla nos centraremos en estrategias de mitigación robustas diseñadas para proteger las implementaciones de AI. Compartiremos un conjunto de medidas preventivas y mejores prácticas que se pueden emplear para proteger contra estas amenazas emergentes.

#security

caution
See the full schedule
Register for free!