Seguridad

Audio creado con IA para desbloquear posibilidades e impacto positivo, guiado por responsabilidad y medidas de protección que evitan el mal uso.

Nuestra Misión de Seguridad

En ElevenLabs, creemos profundamente en los inmensos beneficios del audio creado con IA. Nuestra tecnología es utilizada por millones de personas y miles de empresas para hacer que el contenido y la información sean accesibles a audiencias para quienes antes estaban fuera de alcance, para crear herramientas educativas atractivas, para impulsar experiencias de entretenimiento inmersivas, para devolver la voz a personas que han perdido la capacidad de hablar debido a un accidente o enfermedad, y mucho más.

Como ocurre con todas las tecnologías transformadoras, también reconocemos que cuando se hace un mal uso de la tecnología, puede causar daño. Por eso estamos comprometidos a proteger contra el uso indebido de nuestros modelos y productos, especialmente los esfuerzos por engañar o explotar a otros. Nuestros principios de seguridad guían nuestro trabajo diario y se reflejan en salvaguardas concretas y en múltiples capas diseñadas para prevenir y abordar el abuso.

“La seguridad en IA es inseparable de la innovación en ElevenLabs. Asegurar que nuestros sistemas se desarrollen, desplieguen y utilicen de manera segura sigue siendo el núcleo de nuestra estrategia.”

Mati Staniszewski

Mati Staniszewski

Co-founder at ElevenLabs

“El volumen de contenido generado por IA seguirá creciendo. Queremos proporcionar la transparencia necesaria, ayudando a verificar los orígenes del contenido digital.”

Piotr Dąbkowski

Piotr Dąbkowski

Co-founder at ElevenLabs

Nuestros Principios de Seguridad

Nuestro programa de seguridad se guía por los siguientes principios:

Safety illustration

Nuestras Salvaguardas

Nos esforzamos por maximizar la fricción para los malos actores que intentan hacer un mal uso de nuestras herramientas, mientras mantenemos una experiencia fluida para los usuarios legítimos. Reconocemos que ningún sistema de seguridad es perfecto: en ocasiones, las salvaguardas pueden bloquear erróneamente a buenos actores o no detectar a los malintencionados.

Desplegamos un conjunto completo de salvaguardas en un sistema de defensa en múltiples capas. Si una capa es superada, las capas adicionales que están más allá están en su lugar para capturar el mal uso. Nuestros mecanismos de seguridad están en constante evolución para mantenerse al ritmo de los avances en nuestros modelos, productos y tácticas adversarias.

Informar

Incorporamos estándares de terceros como C2PA y apoyamos esfuerzos externos para mejorar las herramientas de detección de deepfakes. Hemos lanzado públicamente un clasificador de audio creado con IA líder en la industria para ayudar a otros a determinar si un contenido fue generado usando ElevenLabs.

Aplicar

Los clientes que violan nuestra Política de Uso Prohibido están sujetos a acciones de aplicación, incluyendo prohibiciones para infractores persistentes o graves. Referimos actividades criminales y otras ilegales a las autoridades competentes.

Detectar

Monitorizamos activamente nuestra plataforma para detectar violaciones de nuestra Política de Uso Prohibido, utilizando clasificadores de IA, revisores humanos e investigaciones internas. Colaboramos con organizaciones externas para obtener información sobre posibles abusos y hemos establecido un mecanismo a través del cual el público puede reportar abusos.

Prevenir

Probamos nuestros modelos antes de su lanzamiento y verificamos a nuestros clientes al registrarse. También integramos características en el producto para disuadir a actores malintencionados o irresponsables, incluyendo el bloqueo de la clonación de voces de celebridades y otras de alto riesgo, y requerimos verificación tecnológica para acceder a nuestra herramienta de Voice Cloning Profesional.

Programa de Colaboración en Seguridad

Apoyamos a organizaciones líderes para desarrollar soluciones técnicas que detecten deepfakes en tiempo real.

Reportar Contenido

Si encuentras contenido que genera preocupación y crees que fue creado con nuestras herramientas, por favor repórtalo aquí.

Política de contenido y usos prohibidos

Conoce los tipos de contenido y actividades que no están permitidos al usar nuestras herramientas.

Clasificador de Voz IA de ElevenLabs

Nuestro Clasificador de Voz IA te permite detectar si un clip de audio fue creado usando ElevenLabs.

Coalición para la Procedencia y Autenticidad del Contenido

Un estándar técnico abierto que proporciona la capacidad de rastrear el origen de los medios.

Iniciativa de Autenticidad del Contenido

Promoviendo la adopción de un estándar abierto de la industria para la autenticidad y procedencia del contenido.

Preguntas frecuentes

La plataforma de voz IA más realista

Background lines