Durante décadas, el doctor estadounidense Michael I. Jordan ha trabajado para entender y organizar el caos de los datos y desarrollar herramientas al servicio de la humanidad. Este matemático y científico cognitivo, catedrático emérito en la Universidad de California e investigador en el INRIA de París, es uno de los pioneros de la inteligencia artificial y uno de los principales responsables de que sistemas como ChatGPT sean capaces de responder a los usuarios. Su tecnología también está detrás de los algoritmos que nos recomiendan resultados en función de gustos e intereses; logros que le han valido uno de los galardones en la presente edición de los Premios Fronteras del Conocimiento que la Fundación BBVA entrega en Bilbao este jueves.Y si el trabajo de Jordan explica, parcialmente, cómo funcionan las máquinas, la india Mahzarin R. Banaji -también premiada por la fundación- se pregunta qué creen. Profesora de Ética Social en Harvard y pionera en el estudio de los sesgos implícitos, lleva años investigando las asociaciones inconscientes que moldean nuestras decisiones. En un análisis reciente, demostró con una base de datos de 840.000 palabras en internet que las asociaciones más frecuentes para «hombre» o «masculino» están relacionadas con la guerra y los deportes, mientras que la «mujer» y lo «femenino» se asocia predominantemente con el abuso y la pornografía. Y es precisamente de ahí, de la red, de donde se ‘alimenta’ principalmente ChatGPT, el Grok de Elon Musk o el Gemini de Google, que ofrecen lo mismo básicamente.MÁS INFORMACIÓN noticia No La IA puede ayudar a detectar la depresión y el riesgo de suicidio noticia No ChatGPT tiene más posibilidades de persuadirte de que apoyes el aborto o las drogas que una personaAhora, Banaji está enfocando su atención en los sesgos de estas herramientas. Señala que su conducta puede parecerse a la humana, aunque es «mucho más extrema en los juicios que realiza» y tiende a agradar en exceso al usuario. «La primera vez que hablé con ChatGPT, al poco de su lanzamiento, le pregunté por sus sesgos implícitos, y me dijo que era ‘un hombre blanco’. Pensé que era increíble que la máquina creyese tener raza y género. No me dijo lo que pensaba, sino lo que creía que era. Al mes le hice la misma pregunta y el discurso cambió: decía que no tenía sesgos, y que los que pudiera tener serían producto de los sesgos humanos presentes en los datos con los que fue entrenado. Me sorprendió mucho ese cambio en apenas un mes», señala. «Veo que con el tiempo la tecnología puede terminar desarrollando un sentido de sí misma. Es algo muy pequeño, pero veo esa semilla. No sé si esto ocurrirá, pero es una de las razones por las que me involucré en la investigación», añade.SuperinteligenciaJordan advierte que aunque pueda parecer que las aplicaciones de IA «tienen personalidad o una identidad única», en realidad no es así: «Todo lo que saben es colectivo y está basado en los datos de millones de personas. Si les repites la misma pregunta varias veces, vas a recibir respuestas diferentes. Es como charlar con una cultura entera». Esto, añade, hace que confiar ciegamente en sus respuestas sea problemático: «No razonan bajo la incertidumbre y cambian de idea con mucha facilidad. Si les preguntas, por ejemplo, quién es el presidente de Ghana, posiblemente te lo responderán bien. Pero no confiarías en un médico que te dijera que puedes tener una enfermedad y, al momento siguiente, otra distinta. Estamos hablando de herramientas, y como tales, es importante que los usuarios entiendan cómo utilizarlas y que pueden cometer errores».Consultados sobre si podemos esperar la eliminación del error y el sesgo, los dos investigadores dudan. Banaji confiesa que en su juventud «tenía la creencia de que seríamos capaces de crear una forma de inteligencia que nos mejoraría en todo y tomaría mejores decisiones morales«: »Ahora no lo tengo claro, teniendo en cuenta que son corporaciones con ánimo de lucro, principalmente en Silicon Valley, las que las están construyendo».Jordan es tajante: «No tengo mucha confianza en los líderes de grandes empresas como Google u OpenAI. No son científicos y, desde luego, tampoco creo que sean muy buenos en tecnología. Solo quieren hacer dinero de forma rápida, y esa no es la forma de hacer avanzar la tecnología». Y añade: «Sam Altman, que es el director de OpenAI, es una persona de dinero. No tiene una comprensión profunda de la tecnología. No piensa bien en el despliegue de la tecnología, y es el tipo de persona de Silicon Valley en la que no confiaría. Ahora está ayudando a la carrera armamentística, colaborando con el Ejército de Estados Unidos».También critica que OpenAI haya abandonado el código abierto, lo que impide a investigadores externos estudiar cómo funciona ChatGPT o crear versiones propias. Banaji lo remata con una advertencia: «En Estados Unidos hay manifestaciones contra el rey , haciendo referencia a Trump, pero la gente también debería manifestarse contra los ‘reyes’ de Silicon Valley».Actualmente, empresas como OpenAI, Google o Meta trabajan en la creación de una superinteligencia artificial que supere a cualquier ser humano. Varios ejecutivos, como Altman o Elon Musk, se muestran optimistas, y hasta apuntan que podría llegar en los dos próximos años, pero los científicos son escépticos. Para Jordan, se trata de «un término inventado» para conseguir «más financiación procedente del capitalismo de riesgo». Además, no tiene claro que sea algo necesario: «Realmente no significa mucho. Un ordenador ya puede hacer muchísimas cosas que los seres humanos no pueden hacer. Así que no está nada mal».Trump y las universidadesLos dos investigadores muestran inquietud ante los recientes ataques de Trump a las universidades estadounidenses, especialmente contra Harvard , donde trabaja Banaji. El presidente ha acusado a la institución de tener un sesgo liberal y ha intentado presionarla para que abandone sus políticas de diversidad. Entre sus acciones figuran la cancelación de contratos federales, la congelación de fondos para investigación o el bloqueo a la admisión de estudiantes extranjeros. Una ofensiva que, de prosperar, podría afectar seriamente a la investigación en el centro académico más importante del país.«Las acciones recientes del Gobierno contra mi universidad se están interpretando como la lucha de Goliat contra Goliat (haciendo referencia al poder de Harvard como la institución académica más prestigiosa del mundo). Sin embargo, no creo que esta valoración sea correcta. No somos nada comparado con el poder del gobierno federal de los Estados Unidos. No sabemos si vamos a sobrevivir a esto «, dice la investigadora. »Pero no podemos dejar de oponernos, porque Harvard no es Harvard sin alumnos extranjeros«, prosigue.Jordan lamenta que, a su juicio, el presidente está influenciado por «un pequeño grupo de fascistas y populistas» que «quieren el poder absoluto», pero que «ya no estarán ahí dentro de tres años» cuando lleguen las siguientes elecciones presidenciales: «Las cosas cambiarán e incluso los miembros del partido republicano abogarán por restablecer las ayudas a los centros y a los científicos. Si se rompen las relaciones entre los investigadores y el estado, el motor de América se romperá» Durante décadas, el doctor estadounidense Michael I. Jordan ha trabajado para entender y organizar el caos de los datos y desarrollar herramientas al servicio de la humanidad. Este matemático y científico cognitivo, catedrático emérito en la Universidad de California e investigador en el INRIA de París, es uno de los pioneros de la inteligencia artificial y uno de los principales responsables de que sistemas como ChatGPT sean capaces de responder a los usuarios. Su tecnología también está detrás de los algoritmos que nos recomiendan resultados en función de gustos e intereses; logros que le han valido uno de los galardones en la presente edición de los Premios Fronteras del Conocimiento que la Fundación BBVA entrega en Bilbao este jueves.Y si el trabajo de Jordan explica, parcialmente, cómo funcionan las máquinas, la india Mahzarin R. Banaji -también premiada por la fundación- se pregunta qué creen. Profesora de Ética Social en Harvard y pionera en el estudio de los sesgos implícitos, lleva años investigando las asociaciones inconscientes que moldean nuestras decisiones. En un análisis reciente, demostró con una base de datos de 840.000 palabras en internet que las asociaciones más frecuentes para «hombre» o «masculino» están relacionadas con la guerra y los deportes, mientras que la «mujer» y lo «femenino» se asocia predominantemente con el abuso y la pornografía. Y es precisamente de ahí, de la red, de donde se ‘alimenta’ principalmente ChatGPT, el Grok de Elon Musk o el Gemini de Google, que ofrecen lo mismo básicamente.MÁS INFORMACIÓN noticia No La IA puede ayudar a detectar la depresión y el riesgo de suicidio noticia No ChatGPT tiene más posibilidades de persuadirte de que apoyes el aborto o las drogas que una personaAhora, Banaji está enfocando su atención en los sesgos de estas herramientas. Señala que su conducta puede parecerse a la humana, aunque es «mucho más extrema en los juicios que realiza» y tiende a agradar en exceso al usuario. «La primera vez que hablé con ChatGPT, al poco de su lanzamiento, le pregunté por sus sesgos implícitos, y me dijo que era ‘un hombre blanco’. Pensé que era increíble que la máquina creyese tener raza y género. No me dijo lo que pensaba, sino lo que creía que era. Al mes le hice la misma pregunta y el discurso cambió: decía que no tenía sesgos, y que los que pudiera tener serían producto de los sesgos humanos presentes en los datos con los que fue entrenado. Me sorprendió mucho ese cambio en apenas un mes», señala. «Veo que con el tiempo la tecnología puede terminar desarrollando un sentido de sí misma. Es algo muy pequeño, pero veo esa semilla. No sé si esto ocurrirá, pero es una de las razones por las que me involucré en la investigación», añade.SuperinteligenciaJordan advierte que aunque pueda parecer que las aplicaciones de IA «tienen personalidad o una identidad única», en realidad no es así: «Todo lo que saben es colectivo y está basado en los datos de millones de personas. Si les repites la misma pregunta varias veces, vas a recibir respuestas diferentes. Es como charlar con una cultura entera». Esto, añade, hace que confiar ciegamente en sus respuestas sea problemático: «No razonan bajo la incertidumbre y cambian de idea con mucha facilidad. Si les preguntas, por ejemplo, quién es el presidente de Ghana, posiblemente te lo responderán bien. Pero no confiarías en un médico que te dijera que puedes tener una enfermedad y, al momento siguiente, otra distinta. Estamos hablando de herramientas, y como tales, es importante que los usuarios entiendan cómo utilizarlas y que pueden cometer errores».Consultados sobre si podemos esperar la eliminación del error y el sesgo, los dos investigadores dudan. Banaji confiesa que en su juventud «tenía la creencia de que seríamos capaces de crear una forma de inteligencia que nos mejoraría en todo y tomaría mejores decisiones morales«: »Ahora no lo tengo claro, teniendo en cuenta que son corporaciones con ánimo de lucro, principalmente en Silicon Valley, las que las están construyendo».Jordan es tajante: «No tengo mucha confianza en los líderes de grandes empresas como Google u OpenAI. No son científicos y, desde luego, tampoco creo que sean muy buenos en tecnología. Solo quieren hacer dinero de forma rápida, y esa no es la forma de hacer avanzar la tecnología». Y añade: «Sam Altman, que es el director de OpenAI, es una persona de dinero. No tiene una comprensión profunda de la tecnología. No piensa bien en el despliegue de la tecnología, y es el tipo de persona de Silicon Valley en la que no confiaría. Ahora está ayudando a la carrera armamentística, colaborando con el Ejército de Estados Unidos».También critica que OpenAI haya abandonado el código abierto, lo que impide a investigadores externos estudiar cómo funciona ChatGPT o crear versiones propias. Banaji lo remata con una advertencia: «En Estados Unidos hay manifestaciones contra el rey , haciendo referencia a Trump, pero la gente también debería manifestarse contra los ‘reyes’ de Silicon Valley».Actualmente, empresas como OpenAI, Google o Meta trabajan en la creación de una superinteligencia artificial que supere a cualquier ser humano. Varios ejecutivos, como Altman o Elon Musk, se muestran optimistas, y hasta apuntan que podría llegar en los dos próximos años, pero los científicos son escépticos. Para Jordan, se trata de «un término inventado» para conseguir «más financiación procedente del capitalismo de riesgo». Además, no tiene claro que sea algo necesario: «Realmente no significa mucho. Un ordenador ya puede hacer muchísimas cosas que los seres humanos no pueden hacer. Así que no está nada mal».Trump y las universidadesLos dos investigadores muestran inquietud ante los recientes ataques de Trump a las universidades estadounidenses, especialmente contra Harvard , donde trabaja Banaji. El presidente ha acusado a la institución de tener un sesgo liberal y ha intentado presionarla para que abandone sus políticas de diversidad. Entre sus acciones figuran la cancelación de contratos federales, la congelación de fondos para investigación o el bloqueo a la admisión de estudiantes extranjeros. Una ofensiva que, de prosperar, podría afectar seriamente a la investigación en el centro académico más importante del país.«Las acciones recientes del Gobierno contra mi universidad se están interpretando como la lucha de Goliat contra Goliat (haciendo referencia al poder de Harvard como la institución académica más prestigiosa del mundo). Sin embargo, no creo que esta valoración sea correcta. No somos nada comparado con el poder del gobierno federal de los Estados Unidos. No sabemos si vamos a sobrevivir a esto «, dice la investigadora. »Pero no podemos dejar de oponernos, porque Harvard no es Harvard sin alumnos extranjeros«, prosigue.Jordan lamenta que, a su juicio, el presidente está influenciado por «un pequeño grupo de fascistas y populistas» que «quieren el poder absoluto», pero que «ya no estarán ahí dentro de tres años» cuando lleguen las siguientes elecciones presidenciales: «Las cosas cambiarán e incluso los miembros del partido republicano abogarán por restablecer las ayudas a los centros y a los científicos. Si se rompen las relaciones entre los investigadores y el estado, el motor de América se romperá» Durante décadas, el doctor estadounidense Michael I. Jordan ha trabajado para entender y organizar el caos de los datos y desarrollar herramientas al servicio de la humanidad. Este matemático y científico cognitivo, catedrático emérito en la Universidad de California e investigador en el INRIA de París, es uno de los pioneros de la inteligencia artificial y uno de los principales responsables de que sistemas como ChatGPT sean capaces de responder a los usuarios. Su tecnología también está detrás de los algoritmos que nos recomiendan resultados en función de gustos e intereses; logros que le han valido uno de los galardones en la presente edición de los Premios Fronteras del Conocimiento que la Fundación BBVA entrega en Bilbao este jueves.Y si el trabajo de Jordan explica, parcialmente, cómo funcionan las máquinas, la india Mahzarin R. Banaji -también premiada por la fundación- se pregunta qué creen. Profesora de Ética Social en Harvard y pionera en el estudio de los sesgos implícitos, lleva años investigando las asociaciones inconscientes que moldean nuestras decisiones. En un análisis reciente, demostró con una base de datos de 840.000 palabras en internet que las asociaciones más frecuentes para «hombre» o «masculino» están relacionadas con la guerra y los deportes, mientras que la «mujer» y lo «femenino» se asocia predominantemente con el abuso y la pornografía. Y es precisamente de ahí, de la red, de donde se ‘alimenta’ principalmente ChatGPT, el Grok de Elon Musk o el Gemini de Google, que ofrecen lo mismo básicamente.MÁS INFORMACIÓN noticia No La IA puede ayudar a detectar la depresión y el riesgo de suicidio noticia No ChatGPT tiene más posibilidades de persuadirte de que apoyes el aborto o las drogas que una personaAhora, Banaji está enfocando su atención en los sesgos de estas herramientas. Señala que su conducta puede parecerse a la humana, aunque es «mucho más extrema en los juicios que realiza» y tiende a agradar en exceso al usuario. «La primera vez que hablé con ChatGPT, al poco de su lanzamiento, le pregunté por sus sesgos implícitos, y me dijo que era ‘un hombre blanco’. Pensé que era increíble que la máquina creyese tener raza y género. No me dijo lo que pensaba, sino lo que creía que era. Al mes le hice la misma pregunta y el discurso cambió: decía que no tenía sesgos, y que los que pudiera tener serían producto de los sesgos humanos presentes en los datos con los que fue entrenado. Me sorprendió mucho ese cambio en apenas un mes», señala. «Veo que con el tiempo la tecnología puede terminar desarrollando un sentido de sí misma. Es algo muy pequeño, pero veo esa semilla. No sé si esto ocurrirá, pero es una de las razones por las que me involucré en la investigación», añade.SuperinteligenciaJordan advierte que aunque pueda parecer que las aplicaciones de IA «tienen personalidad o una identidad única», en realidad no es así: «Todo lo que saben es colectivo y está basado en los datos de millones de personas. Si les repites la misma pregunta varias veces, vas a recibir respuestas diferentes. Es como charlar con una cultura entera». Esto, añade, hace que confiar ciegamente en sus respuestas sea problemático: «No razonan bajo la incertidumbre y cambian de idea con mucha facilidad. Si les preguntas, por ejemplo, quién es el presidente de Ghana, posiblemente te lo responderán bien. Pero no confiarías en un médico que te dijera que puedes tener una enfermedad y, al momento siguiente, otra distinta. Estamos hablando de herramientas, y como tales, es importante que los usuarios entiendan cómo utilizarlas y que pueden cometer errores».Consultados sobre si podemos esperar la eliminación del error y el sesgo, los dos investigadores dudan. Banaji confiesa que en su juventud «tenía la creencia de que seríamos capaces de crear una forma de inteligencia que nos mejoraría en todo y tomaría mejores decisiones morales«: »Ahora no lo tengo claro, teniendo en cuenta que son corporaciones con ánimo de lucro, principalmente en Silicon Valley, las que las están construyendo».Jordan es tajante: «No tengo mucha confianza en los líderes de grandes empresas como Google u OpenAI. No son científicos y, desde luego, tampoco creo que sean muy buenos en tecnología. Solo quieren hacer dinero de forma rápida, y esa no es la forma de hacer avanzar la tecnología». Y añade: «Sam Altman, que es el director de OpenAI, es una persona de dinero. No tiene una comprensión profunda de la tecnología. No piensa bien en el despliegue de la tecnología, y es el tipo de persona de Silicon Valley en la que no confiaría. Ahora está ayudando a la carrera armamentística, colaborando con el Ejército de Estados Unidos».También critica que OpenAI haya abandonado el código abierto, lo que impide a investigadores externos estudiar cómo funciona ChatGPT o crear versiones propias. Banaji lo remata con una advertencia: «En Estados Unidos hay manifestaciones contra el rey , haciendo referencia a Trump, pero la gente también debería manifestarse contra los ‘reyes’ de Silicon Valley».Actualmente, empresas como OpenAI, Google o Meta trabajan en la creación de una superinteligencia artificial que supere a cualquier ser humano. Varios ejecutivos, como Altman o Elon Musk, se muestran optimistas, y hasta apuntan que podría llegar en los dos próximos años, pero los científicos son escépticos. Para Jordan, se trata de «un término inventado» para conseguir «más financiación procedente del capitalismo de riesgo». Además, no tiene claro que sea algo necesario: «Realmente no significa mucho. Un ordenador ya puede hacer muchísimas cosas que los seres humanos no pueden hacer. Así que no está nada mal».Trump y las universidadesLos dos investigadores muestran inquietud ante los recientes ataques de Trump a las universidades estadounidenses, especialmente contra Harvard , donde trabaja Banaji. El presidente ha acusado a la institución de tener un sesgo liberal y ha intentado presionarla para que abandone sus políticas de diversidad. Entre sus acciones figuran la cancelación de contratos federales, la congelación de fondos para investigación o el bloqueo a la admisión de estudiantes extranjeros. Una ofensiva que, de prosperar, podría afectar seriamente a la investigación en el centro académico más importante del país.«Las acciones recientes del Gobierno contra mi universidad se están interpretando como la lucha de Goliat contra Goliat (haciendo referencia al poder de Harvard como la institución académica más prestigiosa del mundo). Sin embargo, no creo que esta valoración sea correcta. No somos nada comparado con el poder del gobierno federal de los Estados Unidos. No sabemos si vamos a sobrevivir a esto «, dice la investigadora. »Pero no podemos dejar de oponernos, porque Harvard no es Harvard sin alumnos extranjeros«, prosigue.Jordan lamenta que, a su juicio, el presidente está influenciado por «un pequeño grupo de fascistas y populistas» que «quieren el poder absoluto», pero que «ya no estarán ahí dentro de tres años» cuando lleguen las siguientes elecciones presidenciales: «Las cosas cambiarán e incluso los miembros del partido republicano abogarán por restablecer las ayudas a los centros y a los científicos. Si se rompen las relaciones entre los investigadores y el estado, el motor de América se romperá» RSS de noticias de tecnologia
Noticias Similares