Apple y el análisis de fotos de abusos infantiles: Una buena idea que puede acabar siendo una mala idea
A lo largo de esta semana, una noticia ha levantado una enorme polvareda en los medios tecnológico, al punto de traspasar la barrera y llegar a los medios de opinión en general. Nos referimos, claro, al anuncio por parte de Apple de su intención por implementar en EE.UU una herramienta para escanear la fototeca del iPhone en busca de imágenes de abuso infantil.
Sin duda, semejante iniciativa suena a una buena idea que pueda ayudar a identificar y detener a los pedófilos que utilicen el smartphone para hacer o almacenar este tipo de contenido. No hay duda a ese respecto, quién puede dudar de que algo así no sea positivo, ¿verdad? Pero como siempre suele ocurrir, tras una propuesta brillante se esconden muchas posibilidades equivocadas y un mal uso. ¿Puede esta buena idea acabar transformándose en una mala idea?
Habría que empezar diciendo que esta tecnología CSAM (abreviatura de Child Sexual Abuse Material, en inglés) nos es algo nuevo y ya se lleva empleando desde hace varios años, pero aún así no es perfecta. Uno de los primeros problemas que debería poder solventar la herramienta de escaneo de Apple sería pues la creación de falsos positivos. Que una imagen personal llegue a Apple o al organismo encargado de investigarla significa que, potencialmente y con la excusa de ser material sospechoso, terceras personas podrían tener acceso a nuestras fotografías o vídeos.
Imaginad además que alguien se entera de que estamos siendo investigados por un caso semejante y cómo podría afectar eso a nuestra reputación o a nuestras vidas, porque la duda quedaría siempre flotando aunque saliéramos completamente inocentes del asunto. En una sociedad tan judicializada y obsesionada con la defensa de la privacidad como la americana, puede ser un foco interminable de conflictos a todos los niveles.
Igual de preocupante es que una huella digital, que es la tecnología que emplea esta herramienta de Apple para su funcionamiento, puede ser creada no solo para casos de abusos infantiles, si no para cualquier otro tipo de imagen. Esto significa que un gobierno dictatorial podría añadir a su base de datos (en la que busca conciencias la herramienta) determinadas imágenes de contenido político y detectar opositores o disidentes que las tuvieran en sus iPhone o iPad y tomar medidas en consecuencia.
Esas son solo dos posibilidades, dos maneras en las que una buena idea como crear una forma de descubrir contenido de abuso infantil puede ser utilizada de manera incorrecta y acabar convirtiéndose en una mala idea, muy alejada de su propósito inicial para el que fue creada. Estos días Apple se está esforzando en explicar el funcionamiento de su herramienta y solventar todas las dudas al respecto, así que quizás a lo largo de los próximos días comprendamos mejor cómo funciona y si estos riesgos potenciales de los que hablábamos, pueden darse o no.
Comentarios cerrados