fbpx
QuieroTv Logo

Email

quierotvecuador@gmail.com

Móvil

(+593) 09-82233964

Ubicación

Guayaquil, Ecuador

IPhone agrega a sus teléfonos un algoritmo que analiza tus fotos.

Apple planea instalar un software en los iPhones de EE UU para detectar pornografía infantil. El sistema, según indicó la compañía, comprobará las fotos en los iPhones para buscar coincidencias con conocidas imágenes de abuso sexual infantil antes de que se carguen en su servicio de almacenamiento en la nube iCloud.

El gigante tecnológico añadió que si se detectan suficientes imágenes con ese contenido ilegal, iniciará una revisión humana e informará a las autoridades encargadas de hacer cumplir la ley.

La noticia, ha provocado una alarma entre los investigadores de seguridad que advierten que este movimiento de Apple podría abrir la puerta a la vigilancia de los dispositivos personales de millones de personas. Les preocupa que esta tecnología pueda utilizarse por algunos gobiernos para escanear teléfonos en busca de contenido prohibido o imágenes relacionadas con el activismo político.

Matthew Green, profesor de criptografía de la Universidad Johns Hopkins, fue uno de los primeros en dar la alarma a través de Twitter y apuntó que la herramienta de escaneo de material de abuso sexual infantil de Apple funcionará localmente en los iPhones. Este experto explicó que esta herramienta utilizará algoritmos hash para buscar coincidencias entre las imágenes almacenadas por los usuarios en sus teléfonos y el contenido de pornografía de una base de datos con imágenes conocidas de abuso sexual infantil, lo que implica que los iPhones tendrán que descargarse un conjunto de datos en forma de “huellas” para poder compararlos con las fotos de la galería de los usuarios.

Green indicó, según esta publicación, que los algoritmos que utilizará Apple pueden generar falsos positivos. Sin embargo, la compañía de la manzana defendió que el sistema que incluirán en los iPhones de EE UU está diseñado para reducir los falsos positivos a uno en un billón.

La propuesta parece un intento del gigante tecnológico de encontrar un equilibrio entre dar respuesta a las solicitudes de las fuerzas del orden para ayudar a detener el abuso sexual infantil y la promesa de proteger la privacidad de sus clientes, una máxima que siempre ha defendido la compañía. Otras empresas como Facebook utilizan tecnología similar para detectar y denuncia la pornografía infantil.

Apple ha aclarado que las fotos almacenadas solo en los iPhones no se verifican. Solo cuando un usuario suba una imagen al servicio iCloud, el móvil creará un hash (un código númerico que identifica positivamente la imagen, pero que no se puede utilizar para reconstruirlos). Un aspecto clave del sistema es que Apple comprueba las fotos almacenadas en los iPhones y no cuando estas llegan a los servidores de la empresa.

“Es una idea absolutamente espantosa, porque conducirá a una vigilancia masiva distribuida de nuestros teléfonos y ordenadores portátiles”, dice Ross Anderson, profesor de ingeniería de seguridad de la Universidad de Cambridge. También Green cree que la propuesta puede provocar que los gobiernos obliguen a hacer lo mismo a otras compañías.

“Independientemente de los planes a largo plazo de Apple, han enviado una señal muy clara. En su opinión (muy influyente), es seguro crear sistemas que escaneen los teléfonos de los usuarios en busca de contenido prohibido”, añade este experto. “No importa si tienen razón o no en ese punto. esto romperá la presa; los gobiernos se lo exigirán a todos”.

Por su parte, Alan Woodward, profesor de seguridad informática en la Universidad de Surrey, cree que este enfoque “descentralizado es el mejor que podría adoptarse si se sigue este camino”. En su opinión, es menos invasivo al realizarse la detección en el teléfono y “solo se envía una notificación si hay una coincidencia”.

La nueva propuesta de Apple llegará a finales de este año cuando la compañía lance las nuevas versiones de iOS y iPadOS. El sistema funcionará comparando las imágenes de los móviles con una base de datos de imágenes de abuso sexual infantil compiladas por el Centro Nacional de Niños Desaparecidos y Explotados de EE UU (NCMEC) y otras organizaciones de protección a la infancia.

También puedes leer:

Activista Greta Thunberg es detenida en Bruselas

Activista Greta Thunberg es detenida en Bruselas

Por segunda ocasión en menos de un mes la activista sueca Greta Thunberg fue detenida este sábado en una protesta en Bruselas para exigir el fin de los subsidios a los combustibles fósiles en la Unión Europea, convocada por una treintena de movimientos europeos bajo...

Barack Obama se alinea en ayuda de la campaña de Kamala Harris

Barack Obama se alinea en ayuda de la campaña de Kamala Harris

Barack Obama, expresidente de Estados Unidos, se incorporará a la campaña electoral de Kamala Harris a la Casa Blanca con su participación en un acto en la ciudad de Pittsburgh, principio de una iniciativa que le llevará por varios estados en disputa para fomentar el...

El hombre más longevo fue hallado en una cueva de la India

El hombre más longevo fue hallado en una cueva de la India

Se trata de un anciano hallado en una cueva en Bangalore, India, en condiciones de salud preocupantes. En redes sociales se hizo viral el video de un hombre que supuestamente habían rescatado de una cueva en India. De acuerdo con los medios locales, el adulto mayor...