Recientemente Apple sacó temporalmente a Telegram de la App Store porque al parecer había “contenido inapropiado“. Esto dejó a muchos de los usuarios preguntándose qué tipo de contenido era ese.
Ahora mediante una revelación de un medio de comunicación, se demostró que la empresa eliminó la aplicación después de descubrir que las personas habían estado distribuyendo pornografía infantil a través de la aplicación. Apple, por su parte, se puso en contacto inmediatamente con el equipo y las autoridades de Telegram (incluido el Centro Nacional para Menores Desaparecidos y Explotados) con el fin de abordar la violación específica y también para garantizar que haya “más controles” dentro de la plataforma para evitar que se repita.
De esta manera, por regla general, los servicios de Internet utilizan una gama de medidas preventivas para evitar la difusión precisamente de porno infantil, como las listas de hash compartidas que impiden que un archivo en un sitio se publique en otro sitio. Aún no se sabe a ciencia cierta qué soluciones implementó Telegram, pero el cambio es relativamente corto (su software volvió en horas) lo cual indica que no requirió un cambio fundamental.
Es cierto que la naturaleza del descubrimiento de esto podría proporcionar una pista para saber sobre cómo se distribuyó. Informes sugieren que el material puede haberse hecho público mediante un complemento de un tercero. Como resultado, su privacidad debe permanecer intacta: Apple puede haber tenido la suerte de detectar el contenido vil y tomar medidas.