26 de febrero de 2026
Buenos Aires, 20 C

Apple cambia reglas para menores en iPhone, iPad y Mac

Apple ha implementado un sistema global de verificación de edad en la App Store como respuesta al endurecimiento de las normativas internacionales destinadas a proteger a niños y adolescentes en el entorno digital.

Con esta medida, Apple refuerza su cumplimiento legal y establece un referente que otras plataformas tecnológicas podrían adoptar en mercados donde la protección infantil es una prioridad normativa.

Verificación de edad en Apple: cómo funcionan los nuevos controles para menores

La introducción de herramientas de verificación de edad en el ecosistema de Apple forma parte de una estrategia para adaptarse a los marcos regulatorios emergentes en mercados clave.

Europa ha impulsado este cambio con normativas como el Digital Services Act (DSA) y el UK Age Appropriate Design Code, que requieren verificaciones de edad y diseños de servicio que prioricen el bienestar de menores. El incumplimiento puede conllevar sanciones significativas, incluidas multas elevadas o la restricción de aplicaciones en regiones importantes.

Apple ha desplegado mecanismos técnicos específicos para cumplir con estas obligaciones sin sacrificar la experiencia de usuario. Entre ellos destacan:

Bloqueo preventivo de descargas: los usuarios que no cumplan la edad mínima para una aplicación no podrán descargarla desde la App Store.Verificación vinculada al ID de Apple: la edad registrada al crear la cuenta se utiliza para aplicar restricciones automáticas.Controles parentales mejorados: funciones como Screen Time y Family Sharing ofrecen más opciones para que los padres gestionen el acceso de sus hijos a aplicaciones y contenidos.Clasificación de contenido más detallada: Apple colabora con desarrolladores para garantizar que la declaración de contenido y el público objetivo sean precisos y estén alineados con las normas aplicables.

Estas verificaciones se realizan a nivel del sistema operativo, lo que alivia a las apps individuales de tener que implementar controles básicos por su cuenta; no obstante, en determinados mercados la legislación local puede exigir validaciones adicionales.

Impacto para startups y desarrolladores

La verificación global de edad introducida por Apple tiene efectos directos para fundadores y equipos de desarrollo de aplicaciones móviles.

Una clasificación correcta del contenido en App Store Connect es ahora esencial: errores en la categorización pueden provocar rechazos de actualizaciones, la retirada de la aplicación de la tienda o incluso acciones legales. Los responsables deben dedicar tiempo a completar y revisar con precisión los cuestionarios de clasificación por edad.

La segmentación de audiencias también plantea desafíos para apps que buscan servir tanto a menores como a adultos. Algunas startups optan por crear versiones diferenciadas de sus productos —una para menores y otra para adultos— para cumplir la normativa sin perder alcance comercial.

Redes sociales aceptan auditoría independiente para medir su impacto en la salud mental

Las principales plataformas de redes sociales han acordado someterse a una auditoría externa que evaluará su impacto en la salud mental de los adolescentes, en respuesta a la creciente preocupación pública, política y regulatoria sobre el bienestar juvenil en línea.

Meta (propietaria de Facebook e Instagram), junto a TikTok y Snap, han aceptado colaborar con expertos independientes que revisarán sus políticas y las herramientas de protección dirigidas a usuarios adolescentes.

La evaluación se basará en un conjunto de alrededor de 24 estándares elaborados por especialistas en salud mental, con el objetivo de medir la efectividad de las medidas de seguridad implementadas por las plataformas.

Entre los criterios a examinar figuran herramientas para limitar el tiempo de uso, opciones para desactivar el desplazamiento automático y mecanismos que fomenten pausas periódicas.

También se analizarán las políticas sobre la exposición a contenidos sensibles —como los relacionados con el suicidio o las autolesiones— así como el grado de transparencia y las acciones educativas sobre riesgos digitales.

Las plataformas que superen la evaluación obtendrán un distintivo en forma de escudo azul; las que no cumplan los estándares serán señaladas por no contar con medidas suficientes para bloquear contenidos dañinos.

Artículo anterior

O’Higgins, posible rival de Estudiantes o Boca tras su hazaña en Brasil

Artículo siguiente

Ucrania afirma que cientos de africanos murieron o fueron capturados luchando por Rusia

Continuar leyendo

Últimas noticias

Flor Peña quiere ser anónima

En una entrevista con Nilda Sarli en el ciclo Mil vidas, Florencia Peña ofreció un testimonio sobre el lado más incómodo de la exposición mediática. […]