Investigadores desenfocan caras que lanzaron mil algoritmos

pexels-pixabay-326461.jpg

En 2012, los investigadores de inteligencia artificial diseñaron un gran salto en la visión por computadora gracias, en parte, a un conjunto inusualmente grande de imágenes: miles de objetos cotidianos, personas y escenas en fotos que se extrajeron de la web y se etiquetaron a mano. Ese conjunto de datos, conocido como ImageNet, todavía se utiliza en miles de proyectos de investigación y experimentos de IA en la actualidad. Pero la semana pasada, todos los rostros humanos incluidos en ImageNet desaparecieron repentinamente, después de que los investigadores que administran el conjunto de datos decidieran difuminarlos. Así como ImageNet ayudó a marcar el comienzo de una nueva era de IA, los esfuerzos para solucionarlo reflejan desafíos que afectan a innumerables programas, conjuntos de datos y productos de IA. “Estábamos preocupados por el tema de la privacidad”, dice Olga Russakovsky, profesora asistente en la Universidad de Princeton y una de las responsables de administrar ImageNet. ImageNet se creó como parte de un desafío que invitaba a los informáticos a desarrollar algoritmos capaces de identificar objetos en imágenes. En 2012, esta fue una tarea muy difícil. Luego, una técnica llamada aprendizaje profundo, que implica “enseñar” una red neuronal alimentándola con ejemplos etiquetados, demostró ser más hábil en la tarea que los enfoques anteriores. Desde entonces, el aprendizaje profundo ha impulsado un renacimiento de la inteligencia artificial que también expuso las deficiencias del campo. Por ejemplo, el reconocimiento facial ha demostrado ser un uso particularmente popular y lucrativo del aprendizaje profundo, pero también es controvertido. Varias ciudades de EE. UU. Han prohibido el uso de la tecnología por parte del gobierno debido a preocupaciones sobre la invasión de la privacidad o los prejuicios de los ciudadanos, porque los programas son menos precisos en las caras que no son blancas. Actualmente, ImageNet contiene 1,5 millones de imágenes con alrededor de 1.000 etiquetas. Se utiliza en gran medida para medir el rendimiento de los algoritmos de aprendizaje automático o para entrenar algoritmos que realizan tareas especializadas de visión por computadora. El desenfoque de los rostros afectó a 243.198 imágenes.

Russakovsky dice que el equipo de ImageNet quería determinar si sería posible desenfocar caras en el conjunto de datos sin cambiar qué tan bien reconoce los objetos. “Las personas fueron incidentales en los datos desde que aparecieron en las fotos web que representan estos objetos”, dice. En otras palabras, en una imagen que muestra una botella de cerveza, incluso si la cara de la persona que la bebe es una mancha rosada, la botella en sí permanece intacta. En un artículo de investigación, publicado junto con la actualización de ImageNet, el equipo detrás del conjunto de datos explica que difuminó las caras utilizando el servicio de inteligencia artificial de Amazon, Rekognition; luego, pagaron a los trabajadores de Mechanical Turk para confirmar las selecciones y ajustarlas. El desenfoque de las caras no afectó el rendimiento de varios algoritmos de reconocimiento de objetos entrenados en ImageNet, dicen los investigadores. También muestran que otros algoritmos construidos con esos algoritmos de reconocimiento de objetos tampoco se ven afectados. “Esperamos que esta prueba de concepto allane el camino para prácticas de recopilación de datos visuales más conscientes de la privacidad en el campo”, dice Russakovsky. No es el primer esfuerzo por ajustar la famosa biblioteca de imágenes. En diciembre de 2019, el equipo de ImageNet eliminó los términos sesgados y despectivos introducidos por los etiquetadores humanos después de que un proyecto llamado Excavating AI llamó la atención sobre el problema. Por Tom Simonite En julio de 2020, Vinay Prabhu, científico de aprendizaje automático en UnifyID y Abeba Birhane, candidato a doctorado en University College Dublin en Irlanda, publicaron una investigación que mostraba que podían identificar a personas, incluidos investigadores de ciencias de la computación, en el conjunto de datos. También encontraron imágenes pornográficas incluidas en él. Prabhu dice que difuminar las caras es bueno, pero está decepcionado de que el equipo de ImageNet no reconociera el trabajo que hicieron él y Birhane. Russakovsky dice que aparecerá una cita en una versión actualizada del documento. Las caras borrosas aún pueden tener consecuencias no deseadas para los algoritmos entrenados en los datos de ImageNet. Los algoritmos pueden, por ejemplo, aprender a buscar caras borrosas al buscar objetos en particular. En 2012, los investigadores de inteligencia artificial diseñaron un gran salto en la visión por computadora gracias, en parte, a un conjunto inusualmente grande de imágenes: miles de objetos cotidianos, personas y escenas en fotos que se extrajeron de la web y se etiquetaron a mano. Ese conjunto de datos, conocido como ImageNet, todavía se utiliza en miles de proyectos de investigación y experimentos de IA en la actualidad. Pero la semana pasada, todos los rostros humanos incluidos en ImageNet desaparecieron repentinamente, después de que los investigadores que administran el conjunto de datos decidieran difuminarlos. Así como ImageNet ayudó a marcar el comienzo de una nueva era de IA, los esfuerzos para solucionarlo reflejan desafíos que afectan a innumerables programas, conjuntos de datos y productos de IA. “Estábamos preocupados por el tema de la privacidad”, dice Olga Russakovsky, profesora asistente en la Universidad de Princeton y una de las responsables de administrar ImageNet. ImageNet se creó como parte de un desafío que invitaba a los informáticos a desarrollar algoritmos capaces de identificar objetos en imágenes. En 2012, esta fue una tarea muy difícil. Luego, una técnica llamada aprendizaje profundo, que implica “enseñar” una red neuronal alimentándola con ejemplos etiquetados, demostró ser más hábil en te tarea que los enfoques anteriores. Desde entonces, el aprendizaje profundo ha impulsado un renacimiento de la inteligencia artificial que también expuso las deficiencias del campo. Por ejemplo, el reconocimiento facial ha demostrado ser un uso particularmente popular y lucrativo del aprendizaje profundo, pero también es controvertido. Varias ciudades de EE. UU. Han prohibido el uso de la tecnología por parte del gobierno debido a preocupaciones sobre la invasión de la privacidad o los prejuicios de los ciudadanos, porque los programas son menos precisos en las caras que no son blancas. Actualmente, ImageNet contiene 1,5 millones de imágenes con alrededor de 1.000 etiquetas. Se utiliza en gran medida para medir el rendimiento de los algoritmos de aprendizaje automático o para entrenar algoritmos que realizan tareas especializadas de visión por computadora. El desenfoque de los rostros afectó a 243.198 imágenes.

Russakovsky dice que el equipo de ImageNet quería determinar si sería posible desenfocar caras en el conjunto de datos sin cambiar qué tan bien reconoce los objetos. “Las personas fueron incidentales en los datos desde que aparecieron en las fotos web que representan estos objetos”, dice. En otras palabras, en una imagen que muestra una botella de cerveza, incluso si la cara de la persona que la bebe es una mancha rosada, la botella en sí permanece intacta. En un artículo de investigación, publicado junto con la actualización de ImageNet, el equipo detrás del conjunto de datos explica que difuminó las caras utilizando el servicio de inteligencia artificial de Amazon, Rekognition; luego, pagaron a los trabajadores de Mechanical Turk para confirmar las selecciones y ajustarlas. El desenfoque de las caras no afectó el rendimiento de varios algoritmos de reconocimiento de objetos entrenados en ImageNet, dicen los investigadores. También muestran que otros algoritmos construidos con esos algoritmos de reconocimiento de objetos tampoco se ven afectados. “Esperamos que esta prueba de concepto allane el camino para prácticas de recopilación de datos visuales más conscientes de la privacidad en el campo”, dice Russakovsky. No es el primer esfuerzo por ajustar la famosa biblioteca de imágenes. En diciembre de 2019, el equipo de ImageNet eliminó los términos sesgados y despectivos introducidos por los etiquetadores humanos después de que un proyecto llamado Excavating AI llamó la atención sobre el problema. Por Tom Simonite En julio de 2020, Vinay Prabhu, científico de aprendizaje automático en UnifyID y Abeba Birhane, candidato a doctorado en University College Dublin en Irlanda, publicaron una investigación que mostraba que podían identificar a personas, incluidos investigadores de ciencias de la computación, en el conjunto de datos. También encontraron imágenes pornográficas incluidas en él. Prabhu dice que difuminar las caras es bueno, pero está decepcionado de que el equipo de ImageNet no reconociera el trabajo que hicieron él y Birhane. Russakovsky dice que aparecerá una cita en una versión actualizada del documento. Las caras borrosas aún pueden tener consecuencias no deseadas para los algoritmos entrenados en los datos de ImageNet. Los algoritmos pueden, por ejemplo, aprender a buscar caras borrosas al buscar objetos en particular.

Noticias relacionadas

Inicio