WhatsApp dice que no escaneará sus fotos en busca de abuso infantil

La imagen del artículo titulado WhatsApp dice que no escaneará sus fotos en busca de abuso infantil

Foto:: Carl Court / Personal: (Imágenes falsas:)

La nueva herramienta de exportación de Apple Casos de posible abuso infantil en fotos de iPhone ya está causando controversia. El viernes, solo un día después del anuncio, Will Katcart, la aplicación de mensajería de WhatsApp de Facebook, dijo que la compañía no aceptaría el software, citando una serie de preocupaciones legales y de privacidad.

“Leí la información publicada por Apple ayer. Estoy preocupado. “Creo que este es un enfoque equivocado, un paso atrás para la privacidad de las personas en todo el mundo”, escribió Katcard en Twitter. “La gente preguntó si aceptaríamos este sistema para WhatsApp. La respuesta es no. “

En una serie de tweets, Cathcart se refirió a estas preocupaciones, citando la capacidad de los gobiernos de software espía para seleccionar software de forma conjunta, el potencial del software no seguro para violar la privacidad.

“¿Este software de escaneo en su teléfono podría ser una prueba de un error?” “A los investigadores no se les permitió averiguarlo”, escribió. “¿Por qué no? ¿Cómo sabemos con qué frecuencia los errores rompen la privacidad de las personas?”

En un anuncio de software el jueves, Apple anunció planes para lanzar la actualización a fines de 2021 como parte de una serie de cambios que la compañía planea realizar para proteger a los niños de los depredadores sexuales. Como Gizmodo previamente reportado, la herramienta propuesta que utilizará “función de adaptación neuronalNeuralHash insta a los expertos en seguridad a averiguar si las imágenes del dispositivo del usuario coinciden con las huellas dactilares del conocido material de abuso sexual infantil (CSAM).

En agosto 4 temas de tweets, Matthew Green, profesor asociado Instituto Johns ounce Hopkins para la seguridad de la información, advirtió que la herramienta eventualmente podría convertirse en una condición previa para “aumentar el control sobre los sistemas de mensajería cifrada”.

“He recibido la confirmación de muchas personas de que mañana Apple lanzará una herramienta centrada en el cliente para el escaneo CSAM. “Esta es una muy mala idea”. en tweets. “Estas herramientas permitirán a Apple escanear las fotos de su iPhone en busca de fotos que coincidan con un determinado hash de percepción, e informarlas a los servidores de Apple si aparecen con demasiada frecuencia”.

Sin embargo, según Apple, La descripción de Cathcart del software Cath como dispositivos de “escaneo” no es precisa. Si bien el escaneo mostró resultados, la compañía dijo que el nuevo software simplemente compararía las imágenes que el usuario elegiría cargar en iCloud usando la herramienta NeuralHash. Los resultados de ese escaneo debían estar contenidos en el comprobante de seguridad de cifrado, esencialmente una única caja de datos del dispositivo, el contenido de ese comprobante debía enviarse para su lectura. En otras palabras, como resultado de dicho escaneo, Apple no recopilará datos de las bibliotecas de fotos de los usuarios individuales a menos que recopilen las secciones de Agresión sexual infantil (CSAM).

Según Apple, si bien existe la posibilidad de una mala lectura, el porcentaje de usuarios enviados para la verificación manual será menos de 1 a 1. billones de años.

READ  Open Workspace beta para Google Meet Glass Enterprise

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *