More

    Ahora que las máquinas pueden aprender, ¿pueden desaprender?

    Empresas de todos Los tipos utilizan el aprendizaje automático para analizar los deseos, las aversiones o las caras de las personas. Algunos investigadores ahora están haciendo una pregunta diferente: ¿Cómo podemos hacer que las máquinas olviden?

    Un área incipiente de la informática llamada máquina desaprendizaje busca formas de inducir amnesia selectiva en software de inteligencia artificial. El objetivo es eliminar todo rastro de una persona o punto de datos en particular de un sistema de aprendizaje automático, sin afectar su rendimiento.

    Si se hace práctico, el concepto podría dar a las personas más control sobre sus datos y el valor derivado de ellos. Aunque los usuarios ya pueden pedirle a algunas empresas que eliminen datos personales, generalmente no saben qué algoritmos ayudaron a sintonizar o entrenar con su información. El desaprendizaje automático podría hacer posible que una persona retire tanto sus datos como la capacidad de una empresa para beneficiarse de ellos.

    Aunque intuitivo para cualquiera que haya lamentado lo que compartieron en línea, esa noción de amnesia artificial requiere algunas ideas nuevas en informática. Las empresas gastan millones de dólares en entrenar algoritmos de aprendizaje automático para reconocer rostros o clasificar publicaciones en redes sociales, porque los algoritmos a menudo pueden resolver un problema más rápidamente que los codificadores humanos por sí solos. Pero una vez entrenado, un sistema de aprendizaje automático no se modifica fácilmente, ni siquiera se comprende. La forma convencional de eliminar la influencia de un punto de datos en particular es reconstruir un sistema desde el principio, un ejercicio potencialmente costoso. «Esta investigación tiene como objetivo encontrar un término medio», dice Aaron Roth, profesor de la Universidad de Pensilvania que está trabajando en el desaprendizaje automático. «¿Podemos eliminar toda la influencia de los datos de alguien cuando solicitan eliminarlos, pero evitar el costo total de volver a capacitarse desde cero?»

    El trabajo en el desaprendizaje automático está motivado en parte por la creciente atención a las formas en que la inteligencia artificial puede erosionar la privacidad. Los reguladores de datos de todo el mundo han tenido durante mucho tiempo el poder de obligar a las empresas a eliminar la información obtenida ilegalmente. Los ciudadanos de algunos lugares, como la UE y California, incluso tienen derecho a solicitar que una empresa elimine sus datos si cambian de opinión sobre lo que revelaron. Más recientemente, los reguladores de EE. UU. Y Europa han dicho que los propietarios de sistemas de inteligencia artificial a veces deben ir un paso más allá: eliminar un sistema que fue entrenado en datos confidenciales.

    El año pasado, el regulador de datos del Reino Unido advirtió a las empresas que algunos software de aprendizaje automático podrían estar sujetos a derechos de GDPR, como la eliminación de datos, porque un sistema de inteligencia artificial puede contener datos personales. Los investigadores de seguridad han demostrado que los algoritmos a veces pueden verse obligados a filtrar datos confidenciales utilizados en su creación. A principios de este año, la Comisión Federal de Comercio de EE. UU. Obligó a la empresa de reconocimiento facial Paravision a eliminar una colección de fotos faciales obtenidas incorrectamente y algoritmos de aprendizaje automático entrenados con ellas. El comisionado de la FTC, Rohit Chopra, elogió esa nueva táctica de aplicación como una forma de obligar a una empresa que infringe las reglas de datos a «perder los frutos de su engaño».

    El pequeño campo de la investigación sobre el desaprendizaje de las máquinas se enfrenta a algunas de las cuestiones prácticas y matemáticas planteadas por esos cambios regulatorios. Los investigadores han demostrado que pueden hacer que los algoritmos de aprendizaje automático se olviden en ciertas condiciones, pero la técnica aún no está lista para el horario de máxima audiencia. “Como es común en un campo joven, existe una brecha entre lo que esta área aspira a hacer y lo que sabemos hacer ahora”, dice Roth.

    Un enfoque prometedor propuesto en 2019 por investigadores de las universidades de Toronto y Wisconsin-Madison implica segregar los datos de origen para un nuevo proyecto de aprendizaje automático en múltiples partes. Luego, cada uno se procesa por separado, antes de que los resultados se combinen en el modelo final de aprendizaje automático. Si posteriormente es necesario olvidar un punto de datos, solo es necesario volver a procesar una fracción de los datos de entrada originales. Se demostró que el enfoque funciona con datos de compras en línea y una colección de más de un millón de fotos.

    Roth y colaboradores de Penn, Harvard y Stanford demostraron recientemente una falla en ese enfoque, mostrando que el sistema de desaprendizaje se rompería si las solicitudes de eliminación enviadas vinieran en una secuencia particular, ya sea por casualidad o por un actor malintencionado. También mostraron cómo se podría mitigar el problema.

    Gautam Kamath, profesor de la Universidad de Waterloo que también trabaja en el desaprendizaje, dice que el problema que el proyecto encontró y solucionó es un ejemplo de las muchas preguntas abiertas que quedan sobre cómo hacer que el desaprendizaje automático sea algo más que una simple curiosidad de laboratorio. Su propio grupo de investigación ha estado explorando cuánto se reduce la precisión de un sistema al desaprender sucesivamente múltiples puntos de datos.

    Kamath también está interesado en encontrar formas para que una empresa demuestre —o un regulador lo verifique— que un sistema realmente ha olvidado lo que se suponía que debía desaprender. «Parece que está un poco más adelante, pero tal vez eventualmente tengan auditores para este tipo de cosas», dice.

    Share this
    Tags

    Must-read

    Prácticas seguras de prevención y protección contra incendios y requisitos de vigilancia contra incendios

    recarga de extintores cdmxPrevención y Protección contra Incendios Elimine los riesgos de incendio y explosión eliminando o reduciendo los materiales o vapores combustibles o explosivos...

    Los mejores sistemas de seguridad para el hogar en Canadá

    empresas de seguridad privada TELUS es uno de los mayores proveedores de seguridad en Canadá después de adquirir las operaciones canadienses de ADT en 2019....

    Globos de texto personalizados de bricolaje con vinilo – Ideas para fiestas

    inflables para adultosGlobos de burbujas de texto personalizados parecen estar en todas partes en estos díasy me encanta la idea de personalizar globos de...
    spot_img

    Recent articles

    More like this

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aquí