Un instituto establecido por la Universidad de Stanford para abordar las preocupaciones de que AI puede no representar a toda la humanidad carece de diversidad.

El objetivo del Instituto de Inteligencia Artificial Centrada en el Hombre es admirable, pero el hecho de que consiste principalmente en hombres blancos pone en duda su capacidad para garantizar una representación adecuada.

Chad Loder, experto en ciberseguridad notado que ni un solo miembro de la nueva facultad de IA de Stanford era negro. El sitio de tecnología Gizmodo se acercó a Stanford y la universidad rápidamente agregó a Juliana Bidadanure, profesora asistente de filosofía.

Parte del problema del instituto podría ser lo mismo que intenta abordar: que, al mismo tiempo que mejora, todavía hay una falta de diversidad en las carreras basadas en STEM. Con tecnologías revolucionarias como la IA, partes de la sociedad están en peligro de quedarse atrás.

El instituto cuenta con el respaldo de algunos grandes bateadores. Personas como Bill Gates y Gavin Newsom han prometido su apoyo de que "los creadores y diseñadores de AI deben ser ampliamente representativos de la humanidad".

Lucha contra el sesgo algorítmico

Stanford no es la única institución que lucha contra la buena lucha contra el sesgo en los algoritmos.

A principios de esta semana, AI News informó sobre el lanzamiento de una investigación por parte del gobierno del Reino Unido para determinar los niveles de sesgo en los algoritmos que podrían afectar la vida de las personas.

Dirigida por el Centro para la Ética e Innovación de los Datos (CDEI), la investigación se centrará en las áreas donde la IA tiene un potencial tremendo, como la vigilancia policial, el reclutamiento y los servicios financieros, pero tendría un impacto negativo grave en la vida si no se implementa correctamente.

Mientras tanto, activistas como Joy Buolamwini de la Liga de la Justicia Algorítmica están haciendo su parte para aumentar la conciencia de los peligros que representa el sesgo en la IA.

En un discurso a principios de este año, Buolamwini analizó los algoritmos de reconocimiento facial populares actuales y descubrió serias disparidades en la precisión, especialmente al reconocer a las mujeres negras.

Solo imagine que la vigilancia se usa con estos algoritmos. Los hombres de piel más clara serían reconocidos en la mayoría de los casos, pero las mujeres de piel más oscura serían detenidas por error con más frecuencia. Estamos en grave peligro de automatizar el perfilado.

Se están realizando algunos esfuerzos para crear AI que detecten sesgos no intencionales en otros algoritmos, pero son los primeros días para tales desarrollos, y también necesitarán diversos creadores.

Sin embargo, se aborda, el sesgo algorítmico debe eliminarse antes de que se adopte en áreas de la sociedad donde tendrá un impacto negativo en los individuos.

¿Interesado en escuchar a los líderes de la industria discutir temas como este y sus casos de uso? Asista a los eventos coubicados de AI y Big Data Expo con los próximos espectáculos en Silicon Valley, Londres y Amsterdam para obtener más información. Coubicado con IoT Tech Expo, Blockchain Expo y Cyber ​​Security & Cloud Expo.






Dejar respuesta

Please enter your comment!
Please enter your name here