Empresas de todo tipo de uso aprendizaje automático analizar los deseos, disgustos o rostros de las personas. Algunos investigadores ahora hacen otra pregunta. ¿Cómo podemos hacer que los autos se olviden?
Un área recién creada de la informática llamada máquina. no aprendiz busca formas de inducir amnesia selectiva inteligencia artificial software: El objetivo es eliminar todos los rastros de una persona en particular o un punto de datos del sistema de aprendizaje automático sin afectar su rendimiento.
Si es práctico, el concepto podría dar a las personas más control sobre el valor de sus datos. Si bien es posible que los usuarios ya estén pidiendo a algunas empresas que eliminen información personal, generalmente están obsesionados con los algoritmos que les han ayudado a verificar o entrenar su información. No aprender un automóvil puede brindarle a una persona la oportunidad de recuperar tanto sus datos como la capacidad de la empresa para obtener ganancias de ellos.
Es intuitivo para cualquiera que haya estropeado lo que compartieron en línea, pero el concepto de amnesia artificial requiere algunas ideas nuevas en informática. Las empresas gastan millones de dólares en capacitación en algoritmos de aprendizaje automático para reconocer rostros o clasificar las redes sociales, ya que los algoritmos a menudo pueden resolver el problema más rápido que solo los codificadores humanos. Pero el sistema de aprendizaje automático no cambia fácilmente después del entrenamiento, o incluso entendido. La forma convencional de eliminar el efecto de un determinado punto de datos es reconstruir el sistema desde el principio, un ejercicio potencialmente costoso. «Este estudio tiene como objetivo encontrar el término medio», dijo Aaron Roth, profesor de la Universidad de Pensilvania que trabaja en aprendizaje automático. «¿Podemos eliminar el efecto de los datos de alguien cuando solicitan eliminarlos, pero evitar el costo total de la capacitación desde cero?»
El trabajo en el aprendizaje automático se debe en parte al creciente enfoque en la inteligencia artificial. Los reguladores de datos de todo el mundo han tenido durante mucho tiempo el poder de obligar a las empresas a eliminar información no solicitada. Ciudadanos de algunas zonas, como: ME: y California:, incluso tienen derecho a exigir que la empresa elimine sus datos si cambian de opinión sobre lo que han descubierto. Recientemente, los reguladores estadounidenses y europeos dijeron que los propietarios de sistemas de inteligencia artificial a veces tienen que dar un paso más. Elimina el sistema que se creó con datos confidenciales.
El año pasado, el regulador de datos del Reino Unido advirtió a las empresas que algunos programas de aprendizaje automático pueden estar sujetos a los derechos de GDPR, como la eliminación de datos, ya que el sistema de inteligencia artificial puede contener datos personales. Los investigadores de seguridad han demostrado: que a veces los algoritmos pueden tener que filtrar datos confidenciales utilizados para crearlos. A principios de este año, la Comisión Federal de Comercio de EE. UU. Inicio de reconocimiento facial obligatorio Paravision eliminar una colección de fotos faciales obtenidas incorrectamente մեքեն algoritmos de aprendizaje automático entrenados con ellas. El comisionado de la FTC, Rohit Chopra, elogió la nueva estrategia de aplicación como una forma de obligar a la empresa a romper las reglas de datos: «perder los frutos de su engaño».
El pequeño campo de la investigación que no es del aprendizaje automático aborda problemas matemáticos prácticos que surgen de algunos cambios regulatorios. Los investigadores han demostrado que los algoritmos de aprendizaje automático pueden olvidarse bajo ciertas condiciones, pero la tecnología aún no está lista para el momento principal. «Como es habitual para el sector joven, existe una brecha entre todo lo que esta área está tratando de hacer y lo que sabemos hacer ahora», dijo Roth.
Se sugirió un enfoque prometedor 2019 Se espera que los investigadores de la Universidad de Wisconsin-Madison en Toronto dividan los datos de origen de un nuevo proyecto de aprendizaje automático en varias partes. Luego, cada uno se procesa por separado hasta que los resultados se integran en el modelo final de aprendizaje automático. Si un solo punto de datos se va a olvidar más adelante, solo es necesario reciclar una parte de la entrada original. El enfoque demostró que funciona con datos de compras en línea. una colección de más de un millón de fotos.
Roth և socios de Penn, Harvard են Stanford recientemente mostró la falla de este enfoque, mostrando que el sistema sin aprendizaje fallará si las solicitudes de eliminación se envían en una secuencia determinada, ya sea accidentalmente o por un jugador malintencionado. También mostraron cómo aliviar el problema.
Gautam Kamat, profesor de la Universidad de Waterloo que también trabaja en el no aprendizaje, dice que el problema que ha identificado es un ejemplo de muchas preguntas abiertas sobre cómo no aprender un automóvil debería ser más que una curiosidad en el laboratorio. Fue su propio grupo de investigación para estudiar cuánto se reduce la precisión del sistema al no aprenderlo una y otra vez.
Kamat también está interesado en encontrar formas para que la empresa lo demuestre, o que el regulador verifique que el sistema realmente ha olvidado lo que se suponía que debía aprender. «Se siente un poco fuera de lugar, pero tal vez eventualmente tengan auditores para cosas como esa», dice.
Es probable que aumenten las razones reglamentarias para investigar la posibilidad de no aprender un automóvil a medida que la FTC և otros examinen más de cerca el poder de los algoritmos. El profesor de la Universidad de Oxford Ruben Bins, que estudia la protección de datos, dice que la idea de que las personas deben decir algo sobre el destino de sus datos ha crecido en los últimos años tanto en Estados Unidos como en Europa.
Se requerirá trabajo técnico virtual antes de que las empresas de tecnología puedan implementar el aprendizaje automático para ofrecer a las personas un mayor control sobre el destino algorítmico de sus datos. Aun así, poseer uno todavía está fuera del alcance de la persona promedio.
Privacidad de la opción:, la técnica inteligente para establecer límites matemáticos de qué sistema puede filtrarse en una persona proporciona una comparación útil. Apple, Google և Microsoft aprueban la tecnología, pero se utiliza con relativa poca frecuencia, վտանգ los riesgos de privacidad siguen siendo altos.
Binns dice que puede ser realmente útil, «en otros casos, la empresa hace más para demostrar que es innovadora». Sospecha que no aprender el aprendizaje automático podría ser más una muestra de conocimientos técnicos que un cambio importante en la protección de datos. Incluso si las máquinas aprenden a olvidar, los usuarios deben recordar tener cuidado con quién comparten los datos.
Esta historia apareció desde el principio wired.com:.
Beer ninja. Internet maven. Music buff. Wannabe web evangelist. Analista. Introvertido