Apple suspendió hasta nuevo aviso su plan de escanear las fotos de los usuarios de iPhone en busca de pornografía infantil y abuso de menores.

La decisión de postergar el plan, que había programado para finales de 2021

se debió a la avalancha de críticas que recibió la empresa de parte de defensores de las libertades civiles.

El mecanismo algorítmico implementado por Apple consideraba pedófilos a todos los usuarios de iPhone hasta que la compañía pruebe lo contrario.

Se trataba de cotejar las fotografías de los usuarios contra un catálogo conocido de imágenes de abuso infantil

para luego reaccionar contra el propietario de material ilegal.

El fin de Apple es irreprochable: luchar contra el abuso de menores en todas sus formas, desde violencia sexual hasta tortura.

Un reciente reportaje de The New York Times documentó que el inventario de imágenes y videos de abuso de niños en internet pasó de 3,000 piezas en 1998 a 45 millones en 2018.

¿Como afectan las herramientas de Apple?

Pero las estrategias de Apple para lograr ese fin son muy peligrosas para la libertad de sus clientes,

los derechos civiles, la vida privada y la protección de datos personales.

Los reclamos tuvieron eco en las oficinas centrales de Apple.

“Anteriormente anunciamos planes relacionados con funciones para ayudar a proteger a los niños

de los depredadores que usan herramientas de comunicación para embaucarlos y aprovecharse de ellos

y para ayudar a limitar la propagación de material sobre abuso sexual infantil.

Basándonos en la retroalimentación de nuestros clientes y de grupos de defensoría civil,

investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses

para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”

informó Apple el 3 de septiembre pasado.

La idea original de Apple significaba la creación de una puerta trasera al contenido privado de los usuarios de iPhone

que, en manos de gobiernos autoritarios o empresas sin escrúpulos, abrirá una caja de Pandora con los peores demonios de la distopía tecnológica.

Se trataba de revisar el contenido fotográfico de los usuarios que tuvieran habilitado el servicio de almacenamiento en la nube de Apple, iCloud.

y luego pasarlo por una revisión humana para determinar la ilegalidad y tomar acciones en consecuencia.

El plan también consistía en revisar las comunicaciones de los menores para detectar situaciones irregulares

a juicio de Apple y avisar a sus tutores.

El sistema presentaba distintas fallas metodológicas más allá de la pretendida idea de que cualquier problema social

puede resolverse con la aplicación de tecnología (algo que se conoce como tecnosolucionismo).

El sistema, basado en inteligencia artificial, representa la construcción de una matrix capaz de analizar cualquier otro tipo de contenido hospedado en un teléfono.

¿Se imaginan una tecnología con estas características en poder del Gobierno?

La suspensión del plan de Apple no significa la desaparición de su tecnología de escaneo de imágenes. Se trata de una suspensión de su puesta en marcha.

La semilla distópica está plantada y la certeza de su existencia debe encender todas las alertas para la defensa de nuestras libertades.

Apple podrá dejar la semilla sin riego ni abono, pero hizo el anuncio de que el sistema es posible y otros

—si no es que ya existe, como en el caso del software de espionaje Pegasus y otros similares—

pueden poner manos a la obra para desarrollarlo.

Nadie reprocha el fin de Apple de combatir la pornografía infantil y el abuso de menores,

pero crear una herramienta que nos convierte a todos en sospechosos es construir con tecnología

las bases de una sociedad totalitaria. Y sabemos bien en qué terminan esas sociedades.