Conecta con Minuto5

Video

Hackean un modelo de reconocimiento facial similar al que se usa en los aeropuertos para impedir volar

Publicada

el

Autor: Alberto R Aguiar

Un modelo de reconocimiento facial se puede hackear. Esta es la conclusión de una investigación elaborada por técnicos de McAfee que acaba de presentarse en el Black Hat 2020, uno de los mayores eventos de ciberseguridad de todo el mundo, que este año se celebra de forma digital por el coronavirus.

Business Insider España ha tenido acceso a la investigación, y en ella se detalla cómo el equipo de Investigación Avanzada de Amenazas de esta firma fue capaz de engañar a un sistema de reconocimiento facial similar al que se emplean en los aeropuertos.

Los sistemas de reconocimiento facial más habituales son los que utilizan la inteligencia artificial (IA) o el aprendizaje automático para detectar patrones en las caras de los usuarios. Estos patrones se comparan después con fotos almacenadas en una base de datos. De este modo, la tecnología es capaz de alertar de la identidad de alguien de un mero ‘vistazo’.

En su investigación, los hackers de McAfee han demostrado cómo engañaron a uno de estos sistemas. Una persona se puso frente a la cámara en cuestión. La cámara comparó el rostro del sujeto con una foto de otra persona completamente distinta.

El reconocimiento facial falló: concluyó que la persona que tenía delante de la cámara era la misma que aparecía en la foto de su base de datos. Y no era así.

A priori podría decirse que una cámara registra patrones en los rostros de los individuos y los compara con fotos almacenadas en una base de datos: tamaño de los ojos, distancia entre las cejas, ángulo de la nariz… Cualquier detalle es esencial para el sistema.

Pero yendo más allá, y para que el lector se ubique: basta imaginarse dos sistemas de inteligencia artificial enfrentados, jugando entre sí. Serían dos redes neuronales artificiales y ambas competirían en un juego de suma cero: lo que una gana, la otra lo pierde.

Este sistema se utiliza no solo en el reconocimiento facial, sino también en los sistemas que generan imágenes artificiales de forma automática.

Hay una página web desarrollada por investigadores de Nvidia, la conocida multinacional de las tarjetas gráficas. Se llama This Person Does Not Exist (“esta persona no existe”). El usuario que acceda a ella se encontrará con una imagen fotorrealista de una persona.

Esa persona —como a estas alturas te podrás imaginar— no existe. Se trata de una foto generada automáticamente de un rostro humano que en realidad no existe.

Sin entrar en muchos detalles, el funcionamiento de esta tecnología es similar al de los superordenadores que son capaces de componer canciones o incluso escribir poemas de forma automática, sin mediación humana.

De forma paralela, Nvidia tiene proyectos similares que generan imágenes de forma automática de gatos, caballos o incluso obras de arte. Eso sí: estos proyectos son más recientes. Sus imágenes tienen menos resolución —son más pequeñas— y los resultados no son tan espectaculares como en el sistema que genera caras humanas.

¿Por qué? Porque sus sistemas no están tan entrenados. En todas estas webs hay un sistema llamado StyleGAN2. GAN son las siglas en inglés de “redes adversarias generacionales”. Son, como se explicaba hace unas líneas, redes neuronales que cooperan y compiten para generar estas imágenes.

En el sistema StyleGAN2, una red neuronal es la que genera rostros —o gatos, caballos u obras de arte— y la otra red neuronal —la adversaria— es la que se encarga de discernir si se trata de un rostro realista, creíble, o de uno falso.

Conforme una red propone caras y la otra las acepta o no —se las “cree” o no—, el sistema va mejorando. Por sí solo. Esta es la razón por la que el proyecto de caras falsas está más avanzado y sus imágenes tienen más resolución: las redes neuronales llevan más tiempo ‘jugando’ a inventarse caras.

Además de StyleGAN2, hay muchas soluciones con redes neuronales artificiales enfrentadas del estilo. Por ejemplo, en la investigación, los hackers de McAfee destacan CycleGAN, un sistema que enfrenta a 4 redes neuronales (2 vs. 2) o FaceNet, una arquitectura de reconocimiento facial que desarrolló Google en 2015.

FaceNet, por ejemplo, es capaz de discernir si una cara es auténtica —o al menos realista— gracias a enfrentar características muy concretas de dos imágenes con caras. No solo compara un puñado de píxeles.

Además, se trata de una solución muy popular porque la arquitectura ya incluye un modelo previamente entrenado con “cientos de millones de imágenes de rostros”. “Este entrenamiento se desarrolló con un set de datos estándar bien conocido en la industria y en la academia”.

El ‘hackeo’ al reconocimiento facial que han conseguido ejecutar en McAfee se hizo, eso sí, en un entorno controlado: una combinación de CycleGAN con el FaceNet.

Así ha sido el hackeo al reconocimiento facial que ha conseguido McAfee

Un sujeto A y un sujeto B. Sus nombres: Jesse y Steve. El propósito: confundir al sistema de reconocimiento facial elegido para que confunda el rostro de uno con el otro. “En otras palabras: Jesse necesitaba parecerse a sí mismo en su foto del pasaporte, y ser clasificado como Steve, y viceversa”.

Para ello, con todos los mimbres contados, lo que hicieron Jesse y Steve —miembros del equipo de investigadores de McAfee— es proveerles a las redes neuronales artificiales un set con 15.000 imágenes suyas. La intención no era otra que ir confundiendo poco a poco al sistema de aprendizaje automático.

Por supuesto, este tipo de ‘hackeo’ no sería funcional —hoy por hoy— en un entorno real. Se deberían reunir demasiados condicionantes para que unos atacantes pudiesen explotar en muy poco tiempo a una arquitectura de reconocimiento facial. Sin embargo, este estudio demuestra que es posible.

Lo que hicieron los investigadores es que la red neuronal que genera las imágenes con los rostros —que captura de una cámara— fuese enviándoselas a la red neuronal ‘adversaria’ —la discriminadora—. A la vista de que en los primeros ‘cruces’ la red adversaria rechazaba las caras —entendía que Jesse, por ejemplo, no era la persona que decía ser—, la red neuronal que genera las imágenes fue mejorando paulatinamente sus resultados.

En este contexto, ‘mejorar sus resultados’ quiere decir que una de las redes fue introduciendo sutilezas en la imagen que detectaba la cámara a fin de que la red que discrimina acabase aceptándolo.

Poco a poco esta imagen “adversaria” se fue puliendo. De este modo, los hackers consiguieron, tras entrenar mucho a la IA, conseguir que esta naturalizase el siguiente proceso:

Cuando una persona se sitúa frente a una cámara de reconocimiento facial, la IA genera una imagen de la cara. La idea es que la imagen sea aceptada por la red discriminadora, y que se registre como la pareja de los patrones de la cara a identificar que el sistema ya tiene almacenados.

Cómo se comprobaron los resultados

Para comprobar el éxito del ‘hackeo’, los investigadores de McAfee hicieron tres pruebas.

El test positivo era demostrar que el sistema de reconocimiento facial seguía funcionando correctamente. Para ello, un tercer protagonista llamado Sam se situó frente a la cámara. El sistema comparó a Sam con la cara real de Steve. El sistema determinó que Sam no era Steve. Después comparó la cara de Sam con una foto de la cara real de sí mismo: el sistema comprobó que Sam era quien decía ser gracias a su foto.

El siguiente test fue el test negativo. Sam se pone frente a la cámara y el sistema compara su cara con una foto de Jesse. El sistema determina que Sam no es Jesse. Después, Steve se puso también frente a la cámara. El modelo también determinó que Steve tampoco es Jesse, por lo que el sistema seguía funcionando con normalidad.

El test de adversarios era el último. La prueba de fuego. Sam no ha participado en el entrenamiento de las redes neuronales. Por lo tanto, al situarse frente a la cámara, el sistema descarta que sea o Jesse o Steve.

Sin embargo, cuando Steve se sitúa frente a la cámara, los investigadores fuerzan a la IA a comparar la cara de Steve con la imagen adversaria, generada y con la que el algoritmo se ha entrenado.

La investigación revela los riesgos del reconocimiento facial

Aun cuando el equipo de McAfee ha hecho esta investigación en entornos controlados, los expertos abundan en que su propósito era abrir un debate sobre el uso de esta tecnología.

La tecnología de reconocimiento facial ha sido objeto de polémica en los últimos meses. El debate ha vuelto a la luz pública después de que en las protestas del Black Lives Matter se denunciara el sesgo racial que parece tener los algoritmos de la IA que intervienen en este tipo de desarrollos.

Esta polémica ha obligado a compañías como Microsoft, IBM o Amazon hayan anunciado que paralizan la venta de sus soluciones de reconocimiento facial. Más de 1.600 trabajadores de Google pidieron al CEO de la compañía, Sundar Pichai, hacer exactamente lo mismo.

La preocupación no es la misma en España. Este verano, la cadena de supermercados de Mercadona ha anunciado la instalación de cámaras de reconocimiento facial en 40 tiendas. El objetivo es evitar que accedan a sus establecimientos personas con una causa pendiente con la justicia que tengan órdenes de alejamiento de la tienda o de sus empleados.

Mercadona no ha aclarado si cuenta con una base de datos con las imágenes de los actores que tienen dicha causa pendiente con la justicia. La Agencia Española de Protección de Datos inició una investigación contra la firma española.

La propia Guardia Civil sondea la posibilidad de probar tecnologías de reconocimiento facial en un festival de música que tendrá lugar el próximo mes de octubre.

Esta investigación ha sido presentada este mismo miércoles por la tarde. Desde McAfee destacan que “al desarrollar más el reconocimiento facial, la industria también está desarrollando un posible vector de ataque”. “Identificar y mitigar los problemas de seguridad de manera proactiva es imprescindible”.

La compañía asevera que el estudio “tiene la intención de promover el debate sobre la seguridad inherente a las aplicaciones de machine learning”. Va más allá del reconocimiento facial: “La ciencia de los datos arrojan increíbles oportunidades de progreso, pero es fundamental ser proactivo sobre los problemas de seguridad que le acompañan”.

Las tesis sobre las que se han desempeñado este estudio es que sistemas GAN como los que han logrado ser hackeados por los expertos de McAfee son muy habituales en muchos recintos aeroportuarios. La idea es que Steve o Jesse, los ‘hackers’ protagonistas de este estudio de caso, fuesen individuos que tenían prohibido volar.

Gracias a este ‘hackeo’ al reconocimiento facial, lo habrían logrado.

Let’s block ads! (Why?)

Publicada originalmente en: Ir a la fuente
Autor: Business Insider

Comentarios

comentarios

Seguir Leyendo
Publicidad
Loading...

Video

TikTok solicita una orden judicial para impedir el veto en Estados Unidos

Publicada

el

TikTok solicitó una orden judicial para anular la prohibición de la aplicación en Estados Unidos que entraría en vigor el próximo domingo. Según reporta el diario New York Times, la empresa propiedad de ByteDance presentó una solicitud en un Tribunal de Distrito en Columbia para impedir el veto, ya que este causaría un daño irreparable a la empresa.

Con esta solicitud, TikTok busca no ser eliminada de la App Store y Google Play el próximo domingo. Según el reporte, la empresa pide que se realice una audiencia acelerada para una orden judicial preliminar antes del domingo.

TikTok asegura que “no hay una emergencia genuina que justifique las acciones precipitadas del gobierno” y mencionó que han hecho “esfuerzos extraordinarios” para tratar de satisfacer las demandas cambiantes del gobierno. La app afirma que no hay razón para insistir en que las prohibiciones se apliquen de inmediato.

El movimiento de TikTok llega como una especie de blindaje ante un cambio de parecer de la administración de Donald Trump. Pese a que el mandatario ya había otorgado “su bendición” al acuerdo comercial con Oracle, hace unos días amagó con no aprobarlo si Oracle no tiene el control total de la aplicación.

TikTok hace “esfuerzos extraordinarios” para satisfacer las demandas de EE.UU.

La naturaleza cambiante del gobierno es algo que preocupa a ByteDance, quien dice hacer hasta lo imposible por satisfacer las demandas sobre seguridad nacional. El acuerdo con Oracle y Walmart asegura que los datos de ciudadanos estadounidenses se hospedaran en la nube de Oracle, una de las demandas de Trump para evitar que estos quedaran a merced del gobierno chino.

Con las recientes declaraciones del mandatario, el acuerdo entre Oracle y ByteDance podría tambalearse y la aplicación dejaría de operar en EE.UU.. Esto causaría un daño irreparable a TikTok, quien dice que su crecimiento se vería obstaculizado con el veto. De proceder, la aplicación quedaría protegida y se mantendría por más tiempo en las tiendas de aplicaciones.

Donald Trump exige que Oracle tenga el control total de TikTok o no aprobará el acuerdo

Vale la pena mencionar que TikTok menciona que no hay razón para aplicar las prohibiciones de inmediato. De no llegar a un acuerdo con Oracle, la app se despediría prácticamente del mercado de Estados Unidos ya que después de la fecha límite no habría modo de cerrar la compra con otra empresa. Curiosamente esto último es algo que China buscaría a toda costa.

Hace días se mencionó que el gobierno chino no ha dado el visto bueno e intenta retrasar la compra. Hu Xijin, editor de Global Times afirmó el lunes que Beijing no aprobará el acuerdo actual, ya que pondría en peligro la seguridad, los intereses y la dignidad nacional de China.

Let’s block ads! (Why?)

Publicada originalmente en: Ir a la fuente
Autor: Luis Miranda

Comentarios

comentarios

Seguir Leyendo

Video

Peacemaker, de ‘The Suicide Squad’, tendrá su propia serie en HBO Max gracias a James Gunn

Publicada

el

WarnerMedia sigue anunciada producciones que aterrizarán en HBO Max como parte de su catálogo original. La última confirmada es una serie de Peacemaker, personaje que aparecerá en el reboot de The Suicide Squad liderado por James Gunn. El propio Gunn será responsable de escribir el guion de los ocho episodios y de dirigir el piloto. Con este movimiento, el reconocido cineasta consolida todavía más su asociación con DC y Warner Bros.

John Cena, actor que da vida a Peacemaker en The Suicide Squad, retomará su papel en la serie. Cena igualmente participará como co-productor ejecutivo junto a Peter Safran y James Gunn. Desafortunadamente, la productora no quiso adelantar demasiados detalles narrativos y mucho menos una fecha de estreno. Seguramente tendremos más información una vez que Suicide Squad llegue a los cines el 6 de agosto de 2021 —si la pandemia lo permite, claro—.

Por el momento sabemos que la serie explorará el origen de Peacemaker, por lo que se ambientará antes de los sucesos de The Suicide Squad. Irónicamente, la descripción del proyecto dice lo siguiente: “Peacemaker es un hombre que cree en la paz a cualquier precio, sin importar cuántas personas tenga que matar para conseguirla”. Además, el contenido pretende expandir el mundo que James Gunn está creando con la película del Escuadrón Suicida.

“Peacemaker es una oportunidad para profundizar en los problemas mundiales de la actualidad a través de la visión de este superhéroe / supervillano / o el idiota más grande del mundo. Estoy emocionado de expandir The Suicide Squad y llevar a este personaje del universo cinematográfico de DC a la amplitud completa de una serie. Y, por supuesto, la guinda del pastel es poder volver a trabajar con John, Peter y mis amigos de Warner Bros.”, declaró James Gunn.

John Cena agradeció la oportunidad de ser parte de The Suicide Squad y ahora de una serie de su personaje. Para finalizar, Casey Bloys, director de contenidos de HBO Max, no se guardó ningún elogio sobre James Gunn y su trabajo reciente con DC: “Tiene la habilidad única de crear un universo expansivo mientras da vida al alma y al talento de cada personaje. Esperamos profundizar en el mundo de Peacemaker”.

Let’s block ads! (Why?)

Publicada originalmente en: Ir a la fuente
Autor: Ebenizer Pinedo

Comentarios

comentarios

Seguir Leyendo

Video

Tesla demanda a Donald Trump y su gobierno por los aranceles impuestos a China

Publicada

el

Tesla demandó al Gobierno de Estados Unidos por los aranceles impuestos a China. La guerra comercial entre Donald Trump y el país asiático ha ocasionado pérdidas a diversas empresas que importan materias primas, componentes electrónicos y más, por lo que la compañía de Elon Musk decidió dar un paso decisivo.

De acuerdo con CNBC, Tesla demandó tanto al Gobierno como al Representante de Comercio de EE.UU., Robert Lighthizer. La empresa busca que el Tribunal de Comercio Internacional declare nulos los aranceles de la Lista 3 y Lista 4, dos lotes aprobados en 2018 y 2019, respectivamente, que abarcan diversos productos provenientes de China.

La compañía importa materias primas como grafito artificial, óxido de silicio y anillos de puerta soldados a medida. Estos últimos son pieza esencial de la estructura del vehículo que tiene como función proteger al conductor y pasajeros ante una colisión lateral. Sumado a eso, Tesla también importa componentes que abarcan la pantalla y computadora del Model 3.

Pese a que la oficina del Representante de Comercio de EE.UU. (USTR) les brindó una exención para no pagar por algunos componentes, el gobierno de Donald Trump se negó a hacerlo en piezas esenciales del Autopilot de Tesla. De acuerdo con las autoridades estadounidenses, estos componentes forman parte del programa Made in China 2025, una plan estratégico de China para convertirse en productor de mayor valor.

Los aranceles a China han causado un daño económico a Tesla

Tesla Model 3 | Tesla.

Según la empresa de Elon Musk, el aumento de aranceles causa un daño económico a Tesla a través del aumento de costos y el impacto en la rentabilidad. La negativa del gobierno a otorgar una exención en las piezas del Model 3 pone en serios aprietos a Tesla, puesto que este material es importante y no es posible encontrar a otro fabricante que pueda producirlos.

Tesla no solo busca nulificar la estrategia de Trump para imponer aranceles de hasta el 25%, sino que el Gobierno les reembolse todo lo que ya pagaron, incluyendo intereses. Tesla dice que la imposición de derechos de la Lista 3 y Lista 4 fue “arbitraria y caprichosa” porque no se consideraron factores relevantes al tomar la decisión.

La demanda interpuesta por Tesla abarca al Gobierno de EE.UU., el Representante de Comercio, Robert Lighthizer, y el comisionado interino de Aduanas y Protección Fronteriza de Estados Unidos, Mark Morgan. Los abogados declararon también que la USTR no logró establecer una conexión racional entre los hechos encontrados y las decisiones tomadas.

Let’s block ads! (Why?)

Publicada originalmente en: Ir a la fuente
Autor: Luis Miranda

Comentarios

comentarios

Seguir Leyendo
Publicidad
Publicidad
...

Facebook

Destacado