La expresión «inteligencia artificial» existe desde hace mucho tiempo y abarca desde ordenadores con «cerebro» —como Data, de Star Trek, o Hal 9000, de 2001: Una odisea del espacio— hasta la función de autocompletar, que a menudo nos lleva a enviar correos electrónicos a la persona equivocada. Es un término que engloba una amplia gama de usos, algunos bien establecidos y otros aún en desarrollo.
Las noticias recientes nos muestran un catálogo en rápida expansión de los posibles daños que pueden derivarse de que las empresas impulsen la IA en todas las nuevas funciones y aspectos de la vida pública, como la automatización de los sesgos que se deriva de confiar en una tecnología obsoleta para tomar decisiones importantes sobre la vivienda, el empleo, la educación, etc. de las personas. Para complicar aún más las cosas, los cálculos necesarios para algunos servicios de IA requieren grandes cantidades de agua y electricidad, lo que lleva a a plantearse a veces preguntas difíciles sobre si el aumento del uso de combustibles fósiles o del consumo de agua está justificado.
También nos inundan los anuncios y las exhortaciones para que utilicemos las últimas aplicaciones basadas en IA, así como el bombo publicitario que insiste en que la IA puede resolver cualquier problema.
Ocultos por este bombo publicitario, hay algunos ejemplos reales en los que la IA ha demostrado ser una herramienta útil. Por ejemplo, el aprendizaje automático es especialmente útil para los científicos que estudian todo, desde el funcionamiento interno de nuestra biología hasta los cuerpos cósmicos en el espacio exterior. Las herramientas de IA también pueden mejorar la accesibilidad para las personas con discapacidad, facilitar las iniciativas de rendición de cuentas de la policía y mucho más. Hay razones por las que estos problemas se prestan al aprendizaje automático y por las que el entusiasmo por estos usos no debe traducirse en la percepción de que cualquier modelo de lenguaje o tecnología de IA posee conocimientos especializados o puede resolver cualquier problema que se comercialice como tal.
La EFF lleva mucho tiempo luchando por unas políticas tecnológicas sensatas y equilibradas, porque hemos visto cómo los reguladores pueden centrarse exclusivamente en los casos de uso que no les gustan (como el uso del cifrado para ocultar comportamientos delictivos) y causar un enorme daño colateral a otros usos (como el uso del cifrado para ocultar la resistencia disidente). Del mismo modo, los llamamientos a impedir por completo la regulación estatal de la IA frustrarían importantes esfuerzos para proteger a las personas de los daños reales de las tecnologías de IA. El contexto importa. Los modelos de lenguaje grandes (LLM) y las herramientas que dependen de ellos no son varitas mágicas, sino tecnologías de uso general. Y si queremos regular esas tecnologías de manera que no se frenen las innovaciones beneficiosas, tenemos que centrarnos en el impacto de un uso o herramienta determinados, por parte de una entidad determinada, en un contexto específico. Solo entonces podremos esperar averiguar qué hacer al respecto.
Veamos, pues, el panorama real.
Daños reales y potenciales de la IA
Pensar con antelación en los posibles usos negativos de la IA nos ayuda a detectar los riesgos. Con demasiada frecuencia, las empresas que desarrollan herramientas de IA, así como los gobiernos que las utilizan, pierden de vista los riesgos reales o no les prestan atención. Por ejemplo, las empresas y los gobiernos utilizan la IA para hacer todo tipo de cosas que perjudican a las personas, desde la colusión de precios hasta la vigilancia masiva. La IA nunca debería formar parte de una decisión sobre si una persona será detenida, deportada, puesta en acogida o se le negará el acceso a importantes prestaciones gubernamentales, como las prestaciones por discapacidad o la asistencia médica.
Hay demasiado en juego, y los gobiernos tienen el deber de tomar decisiones responsables, justas y explicables, algo que la IA aún no puede hacer de forma fiable. ¿Por qué? Porque las herramientas de IA están diseñadas para identificar y reproducir patrones en los datos con los que se «entrenan». Si se entrena a la IA con registros de decisiones gubernamentales sesgadas, como registros de arrestos pasados, «aprenderá» a replicar esas decisiones discriminatorias.
Y el simple hecho de contar con un ser humano en la cadena de decisión no solucionará este problema fundamental. Los estudios han demostrado que contar con un ser humano «en el circuito» no corrige adecuadamente el sesgo de la IA, tanto porque el ser humano tiende a deferir a la IA como porque la IA puede servir de cobertura para que un ser humano sesgado ratifique decisiones que coinciden con sus sesgos y anule la IA en otras ocasiones.
Estos sesgos no solo surgen en contextos obvios, como cuando una agencia gubernamental toma decisiones sobre las personas. También pueden surgir en contextos que afectan igualmente a la vida, como la atención médica. Siempre que se utiliza la IA para el análisis en un contexto con disparidades sistémicas y siempre que los costes de una decisión incorrecta recaen sobre alguien distinto de quienes deciden si utilizar la herramienta. Por ejemplo, la dermatología ha desatendido históricamente a las personas de color debido a su enfoque en la piel blanca, lo que ha dado lugar a un sesgo que afecta a las herramientas de IA entrenadas con los datos de imágenes existentes y sesgados.
Este tipo de errores son difíciles de detectar y corregir porque es difícil, o incluso imposible, comprender cómo una herramienta de IA llega a decisiones individuales. Estas herramientas a veces pueden encontrar y aplicar patrones que un ser humano ni siquiera consideraría, como basar las decisiones diagnósticas en el hospital en el que se realizó una exploración. O determinar que los tumores malignos son aquellos que tienen una regla junto a ellos, algo que un humano excluiría automáticamente de su evaluación de una imagen. A diferencia de un humano, la IA no sabe que la regla no forma parte del cáncer.
Auditar y corregir este tipo de errores es fundamental, pero en algunos casos puede invalidar cualquier argumento a favor de la rapidez o la eficiencia de la herramienta. Todos entendemos que cuanto más importante es una decisión, más medidas de protección contra desastres deben existir. En el caso de muchas herramientas de IA, estas medidas aún no existen. A veces, lo que está en juego es demasiado importante como para justificar el uso de la IA. En general, cuanto más importante es lo que está en juego, menos se debe utilizar esta tecnología.
También debemos reconocer el riesgo de depender excesivamente de la IA, al menos tal y como se está comercializando actualmente. Ya hemos visto problemas similares en Internet (véase: «Dr. Google»), pero la velocidad y la escala del uso de la IA, así como el creciente incentivo del mercado para introducir la «IA» en todos los modelos de negocio, han agravado el problema.
Además, la IA puede reforzar las creencias preexistentes de los usuarios, incluso si son erróneas o perjudiciales. Es posible que muchos usuarios no comprendan cómo funciona la IA, para qué está programada y cómo verificar su veracidad. Las empresas han optado por comercializar estas herramientas a gran escala sin proporcionar información adecuada sobre cómo utilizarlas correctamente y cuáles son sus limitaciones. En cambio, las promocionan como fáciles y fiables. Peor aún, algunas empresas de inteligencia artificial también se resisten a la transparencia en nombre de los secretos comerciales y la reducción de la responsabilidad, lo que dificulta la evaluación de las respuestas generadas por la IA.
Otras consideraciones que pueden pesar en contra del uso de la IA son su impacto medioambiental y sus posibles efectos en el mercado laboral. Profundizar en estas cuestiones excede el alcance de este artículo, pero es un factor importante a la hora de determinar si la IA está haciendo bien en algún ámbito y si los beneficios que aporta se distribuyen de forma equitativa.
Se están realizando investigaciones sobre el alcance de los daños de la IA y los medios para evitarlos, pero esto debería formar parte del análisis.
Beneficios reales y potenciales de la IA
Por muy perjudiciales que puedan ser a veces las tecnologías de IA, en las manos y circunstancias adecuadas, pueden hacer cosas que los humanos simplemente no pueden hacer. La tecnología de aprendizaje automático ha impulsado las herramientas de búsqueda durante más de una década. Sin duda, es útil que las máquinas ayuden a los expertos humanos a examinar minuciosamente grandes cantidades de literatura y datos para encontrar puntos de partida para la investigación, algo que ningún número de asistentes de investigación podría hacer en un solo año. Si se cuenta con la participación de un experto real y este tiene un fuerte incentivo para llegar a conclusiones válidas, las debilidades de la IA son menos significativas en la etapa inicial de generación de pistas de investigación. Muchos de los siguientes ejemplos entran en esta categoría.
El aprendizaje automático se diferencia de la estadística tradicional en que el análisis no hace suposiciones sobre qué factores son significativos para el resultado. Más bien, el proceso de aprendizaje automático calcula qué patrones de los datos tienen mayor poder predictivo y luego se basa en ellos, a menudo utilizando fórmulas complejas que son incomprensibles para los humanos. No se trata de descubrimientos de leyes de la naturaleza: la IA no es buena para generalizar de esa manera y dar explicaciones. Más bien, son descripciones de lo que la IA ya ha visto en su conjunto de datos.
Para que quede claro, no respaldamos ningún producto y reconocemos que los resultados iniciales no son prueba de un éxito definitivo. Pero estos casos nos muestran la diferencia entre lo que la IA puede hacer realmente y lo que se afirma que puede hacer.
Los investigadores están utilizando la IA para descubrir alternativas mejores a las baterías de ionen litio actuales, que requieren grandes cantidades de materiales tóxicos, caros y altamente combustibles. Con la IA, el desarrollo de baterías está avanzando rápidamente, al permitir a los investigadores analizar millones de materiales candidatos y generar otros nuevos. Las nuevas tecnologías de baterías descubiertas con la ayuda de la IA tienen un largo camino por recorrer antes de poder alimentar nuestros coches y ordenadores, pero este campo ha avanzado más en los últimos años que en mucho tiempo.
Avances de la IA en la investigación científica y médica
Las herramientas de IA también pueden ayudar a facilitar la predicción meteorológica. Los modelos de predicción de IA requieren menos recursos computacionales y suelen ser más fiables que las herramientas tradicionales basadas en la simulación de la termodinámica física de la atmósfera. Sin embargo, siguen existiendo dudas sobre cómo gestionarán los fenómenos extremos o los cambios climáticos sistémicos a lo largo del tiempo.
Por ejemplo:
- La Administración Nacional Oceánica y Atmosférica ha desarrollado nuevos modelos de aprendizaje automático para mejorar la predicción meteorológica, incluido un sistema híbrido pionero en su género que utiliza un modelo de IA junto con un modelo tradicional basado en la física para ofrecer predicciones más precisas que cualquiera de los dos modelos por separado. para mejorar sus predicciones tradicionales, con mejoras en la precisión cuando el modelo de IA se utiliza junto con el modelo basado en la física.
- Se utilizaron varios modelos para pronosticar un huracán reciente. El sistema de IA de Google DeepMind fue el que mejor funcionó, superando incluso a los pronósticos oficiales del Centro Nacional de Huracanes de EE. UU. (que ahora utiliza el modelo de IA de DeepMind).
Los investigadores están utilizando la IA para ayudar a desarrollar nuevos tratamientos médicos:
- Las herramientas de aprendizaje profundo, como el modelo AlphaFold, ganador del Premio Nobel, están ayudando a los investigadores a comprender el plegamiento de las proteínas. Más de 3 millones de investigadores han utilizado AlphaFold para analizar procesos biológicos y diseñar fármacos que se dirigen a las disfunciones causantes de enfermedades en esos procesos.
- Los investigadores utilizaron el aprendizaje automático para simular y probar computacionalmente una amplia gama de nuevos candidatos a antibióticos con la esperanza de que ayuden a tratar las bacterias resistentes a los medicamentos, una amenaza creciente que mata a millones de personas cada año.
- Los investigadores utilizaron la IA para identificar un nuevo tratamiento para la fibrosis pulmonar idiopática, una enfermedad pulmonar progresiva con pocas opciones de tratamiento. El nuevo tratamiento ha completado con éxito un ensayo clínico de fase IIa. Estos fármacos aún deben demostrar su seguridad y eficacia en ensayos clínicos más amplios y obtener la aprobación de la FDA antes de poder ayudar a los pacientes, pero este nuevo tratamiento para la fibrosis pulmonar podría ser el primero en alcanzar ese hito.
- El aprendizaje automático se ha utilizado durante años para ayudar en el desarrollo de vacunas, incluido el desarrollo de las primeras vacunas contra la COVID-19, acelerando el proceso mediante la rápida identificación de posibles objetivos de vacunas en los que los investigadores pueden centrarse.
Usos de la IA para la accesibilidad y la responsabilidad
Las tecnologías de IA pueden mejorar la accesibilidad para las personas con discapacidad. Sin embargo, al igual que con muchos usos de esta tecnología, es esencial contar con medidas de protección. Muchas herramientas carecen de protecciones de privacidad adecuadas, no están diseñadas para usuarios con discapacidad e incluso pueden albergar prejuicios contra las personas con discapacidad. El diseño inclusivo, la privacidad y las medidas de protección contra los prejuicios son fundamentales. Pero aquí hay dos ejemplos muy interesantes:
- Los generadores de voz con IA están devolviendo la voz a las personas que han perdido la capacidad de hablar. Por ejemplo, mientras ocupaba su escaño en el Congreso, la diputada Jennifer Wexton desarrolló una enfermedad neurológica debilitante que le impidió hablar. Utilizó su voz clonada para pronunciar un discurso en la Cámara de Representantes en defensa de los derechos de las personas con discapacidad.
- Las personas ciegas o con baja visión, así como las sordas o con dificultades auditivas, se han beneficiado de las herramientas de accesibilidad, al tiempo que han debatido sus limitaciones e inconvenientes. En la actualidad, las herramientas de IA suelen proporcionar información en un formato más accesible que las herramientas de búsqueda web tradicionales y muchos sitios web que resultan difíciles de navegar para los usuarios que dependen de un lector de pantalla. Otras herramientas pueden ayudar a los usuarios ciegos y con baja visión a navegar y comprender el mundo que les rodea, proporcionándoles descripciones de su entorno. Aunque estas descripciones visuales no siempre son tan buenas como las que puede proporcionar un ser humano, pueden resultar útiles en situaciones en las que los usuarios no pueden o no quieren pedir a otra persona que les describa algo. Para más información al respecto, consulte nuestro reciente episodio de podcast sobre «La construcción de la Internet táctil».
Cuando hay que examinar una gran cantidad de datos, como en el caso de la responsabilidad policial, la IA resulta muy útil para los investigadores y los responsables políticos:
- El Grupo de Análisis de Datos sobre Derechos Humanos utilizó LLM para analizar millones de páginas de registros relacionados con la mala conducta policial. Se trata, en esencia, de lo contrario a los casos de uso perjudicial relacionados con la vigilancia: cuando el público utiliza el poder de analizar rápidamente grandes cantidades de datos para examinar al Estado, existe la posibilidad de revelar abusos de poder y, dada la desigualdad de poder, hay muy poco riesgo de que se produzcan consecuencias inmerecidas para los investigados.
- Un cliente de la EFF, Project Recon, utilizó un sistema de IA para revisar grandes volúmenes de transcripciones de audiencias de libertad condicional en prisiones con el fin de identificar decisiones sesgadas en materia de libertad condicional. Este uso innovador de la tecnología para identificar sesgos sistémicos, incluidas las disparidades raciales, es el tipo de uso de la IA que debemos apoyar y fomentar.
No es una coincidencia que los mejores ejemplos de usos positivos de la IA se den en lugares donde participan expertos que tienen acceso a la infraestructura que les ayuda a utilizar la tecnología y la experiencia necesaria para evaluar los resultados. Además, los investigadores académicos ya están acostumbrados a explicar lo que han hecho y a ser transparentes al respecto, y han aprendido por experiencia propia que la ética es un paso fundamental en un trabajo como este.
Tampoco es una coincidencia que otros usos beneficiosos impliquen soluciones específicas y discretas a los problemas a los que se enfrentan aquellas personas cuyas necesidades a menudo no satisfacen los canales o proveedores tradicionales. El resultado final es beneficioso, pero está moderado por la experiencia humana y/o adaptado a necesidades específicas.
El contexto importa
Puede ser muy tentador, y fácil, hacer una determinación general sobre algo, especialmente cuando hay tanto en juego. Pero instamos a todos, usuarios, responsables políticos y las propias empresas, a que no se dejen llevar por el entusiasmo. Mientras tanto, la EFF seguirá trabajando para combatir los daños causados por la IA, al tiempo que se asegura de que los usos beneficiosos puedan avanzar.












