Discord anunció que, a partir de marzo de 2026, requerirá que los usuarios verifiquen su edad mediante escaneo facial o identificación oficial para acceder a servidores y canales con contenido restringido para adultos. De no completar el proceso, las cuentas se configurarán por defecto con una “experiencia apropiada para adolescentes”, que filtrará contenido gráfico, limitará ciertas interacciones y ocultará servidores restringidos.
Los usuarios podrán elegir entre un análisis facial con IA (que estima si son adultos o adolescentes y no almacena la imagen) o subir una foto de un documento de identidad a un proveedor externo, que Discord afirma será eliminada inmediatamente tras la confirmación. Además, la plataforma desplegará un modelo de inferencia de edad que analizará metadatos como juegos usados y patrones de actividad para eximir a adultos con alta confianza.

Esta medida global responde a una oleada regulatoria internacional que exige mayor protección infantil en línea. Savannah Badalich, jefa global de política de productos de Discord, admitió que esperan una pérdida de usuarios por preocupaciones de privacidad, pero confían en “encontrar otras formas de atraerlos de vuelta”. La empresa cambió de proveedor tras una filtración de datos en octubre de 2025 que expuso información de verificación.
Aunque la mayoría de los usuarios no notará cambios —ya que el impacto principal será en contenido explícito—, aquellos que no verifiquen su edad no podrán unirse a nuevos servidores restringidos, hablar en canales de “stage” ni ver contenido en servidores ya existentes que sean marcados como adultos, los cuales aparecerán oscurecidos en pantalla.
