Palestina: Masacre de Hebrón de 25/02/1994

Palestina: Masacre de Hebrón de 25/02/1994

La gran estafa al descubierto: la falsa promesa de la Inteligencia Artificial

//////
****Las grandes empresas tecnológicas líderes están trabajando duro para vender la inteligencia artificial (IA) como la puerta de entrada a un futuro de abundancia para todos.

 Y hasta ahora han tenido un éxito sorprendente en captar el dinero de los inversores y el apoyo del gobierno, haciendo que sus ya ricos propietarios sean aún más ricos.

 Sin embargo, ese éxito no cambia el hecho de que sus sistemas de IA ya han agotado en gran medida su potencial. 

Más preocupante aún es el hecho de que la adopción acrítica y en rápido aumento de estos sistemas por parte de las escuelas, las empresas, los medios de comunicación y el ejército representa una grave amenaza para nuestro bienestar colectivo.

 Necesitamos contraatacar, y contraatacar con fuerza, esta gran ofensiva tecnológica.

La gran estafa

Según líderes tecnológicos como Elon Musk, estamos a solo unos años de construir computadoras inteligentes que puedan pensar, sentir y comportarse como humanos. Por ejemplo, como informó Business Insider ,


Elon Musk, director ejecutivo de Tesla, dijo en una entrevista [de febrero de 2025] con la Cumbre de Gobiernos Mundiales de Dubai que los retornos económicos de las inversiones en inteligencia artificial se verán en robots humanoides.

En declaraciones al ministro de Inteligencia Artificial de los Emiratos Árabes Unidos, Musk dijo que los robots humanoides y la inteligencia profunda liberarán el potencial de la economía global al proporcionar "productos y servicios casi infinitos".

“Se puede producir cualquier producto, proporcionar cualquier servicio”, dijo Musk sobre los robots humanoides. “En ese momento, la economía no tiene límites. Se puede fabricar cualquier cosa”.

“¿Tendrá algún significado el dinero? No lo sé, puede que no”, dijo, y agregó que los robots podrían crear una “situación universal de altos ingresos” porque cualquiera tendrá la capacidad de producir tantos bienes y servicios como desee.

Recientemente Musk rebautizó a Tesla como una empresa de robótica con inteligencia artificial y, en una conferencia telefónica sobre ganancias en enero, dijo que la compañía pronto construirá miles de robots Otimus que probablemente le reportarán "más de 10 billones de dólares en ingresos".

Y Tesla no es la única empresa que sigue esta estrategia. Según un artículo de Bloomberg , “Apple y Meta están listas para competir de igual a igual” en la competencia para construir “robots humanoides impulsados ​​por IA”. 

El artículo continúa:

Es cosa de ciencia ficción: robots en casa que pueden doblar la ropa, traerte un vaso de agua, cargar el lavavajillas o incluso empujar a los niños en el columpio del jardín. Durante años, ese futuro parecía lejano, pero se está acercando, con la ayuda de algunas de las empresas tecnológicas más grandes del mundo.

Si el mercado de valores se toma en serio, muchos inversores son verdaderos creyentes. Las llamadas Siete Magníficas acciones (Apple, Microsoft, Alphabet, la matriz de Google, Amazon.com, Nvidia, Meta Platforms y Tesla) han sido responsables de casi todas las ganancias del mercado en los últimos años. 

A principios de 2023, las siete representaban el 20 por ciento del S&P 500. Un año después, eran el 28 por ciento. Ahora son el 33 por ciento.

Poniéndonos realistas

El lanzamiento de ChatGPT en 2022 por parte de OpenAI marcó el inicio de la interacción pública con la IA. Era gratuito, de fácil acceso y no requería conocimientos técnicos para su uso. 

Y aunque sigue siendo el chatbot más utilizado, otras empresas han lanzado sus propios productos de la competencia, entre ellas Tesla, Amazon, Meta, Google y Microsoft. 

Pero, aunque estos chatbots pueden realizar una variedad de tareas, no tienen nada de "inteligente". Y a pesar del gran gasto para aumentar su velocidad y potencia informática, no representan un paso significativo hacia la creación de sistemas de inteligencia artificial general con la capacidad de pensar, aprender y resolver problemas por sí solos.

Los sistemas de IA existentes, como ChatGPT, se basan en el reconocimiento de patrones a gran escala. Se entrenan con datos, la mayoría de los cuales se han extraído de la web, y utilizan algoritmos sofisticados para organizar el material cuando es necesario de acuerdo con patrones de uso comunes. 

Cuando se les plantea una pregunta o se les solicita información, los chatbots identifican el material relacionado en su base de datos y luego reúnen un conjunto de palabras o imágenes, en función de las probabilidades, que “mejor” satisfacen la consulta. 

En otras palabras, los chatbots no “piensan” ni “razonan”. Dado que las empresas competidoras recurren a diferentes conjuntos de datos y utilizan algoritmos diferentes, sus chatbots pueden ofrecer respuestas diferentes a la misma pregunta.

Al mismo tiempo, todos los chatbots sufren las mismas debilidades. Sus sistemas necesitan una gran cantidad de datos y, al rastrear la web, no pueden evitar recurrir a material altamente discriminatorio y sesgado. 

Como resultado, las respuestas de los chatbots pueden verse comprometidas por lo peor de la web. Un ejemplo: se ha descubierto que los programas de selección de currículos impulsados ​​por IA seleccionan desproporcionadamente currículos vinculados a nombres asociados a personas blancas. 

Y debido a su complejidad, nadie ha podido determinar con precisión cómo organiza un chatbot sus datos y realiza su selección de palabras. Por lo tanto, nadie ha ideado aún una forma de evitar que los chatbots "alucinen" periódicamente o vean patrones o relaciones inexistentes, lo que hace que den respuestas sin sentido.

La BBC ha probado recientemente la capacidad de los chatbots más importantes para resumir noticias y ha descubierto que las respuestas resultantes contenían importantes imprecisiones y distorsiones. Esto es lo que dijo la directora ejecutiva de BBC News and Current Affairs, Deborah Turness:

El equipo encontró "problemas significativos" en poco más de la mitad de las respuestas generadas por los asistentes. Los asistentes de inteligencia artificial introdujeron claros errores factuales en alrededor de una quinta parte de las respuestas que, según afirmaron, provenían de material de la BBC.

Y cuando los asistentes de IA incluyeron "citas" de artículos de la BBC, más de una de cada diez había sido alterada o no existía en el artículo.

Parte del problema parece ser que los asistentes de IA no distinguen entre hechos y opiniones en la cobertura noticiosa; no hacen distinción entre material actual y de archivo; y tienden a inyectar opiniones en sus respuestas.

Los resultados que ofrecen pueden ser una mezcla confusa de todos estos elementos, muy alejada de los hechos verificados y la claridad que sabemos que los consumidores anhelan y merecen.

Sin duda, no se trata de un historial que inspire confianza. Por su parte, la BBC recomendó “reducir” los resúmenes de noticias basados ​​en inteligencia artificial.

No hay luz al final del túnel

Conscientes de estas deficiencias, las empresas tecnológicas argumentan que pueden superarse aumentando la cantidad de datos de entrenamiento, así como el número de parámetros que utilizan los chatbots para procesar la información. 

Por eso se apresuran a construir nuevos sistemas con chips cada vez más caros que funcionan con centros de datos cada vez más grandes. Sin embargo, estudios recientes sugieren que esta no es una estrategia ganadora.

Como explica Lexin Zhou, coautor de un estudio publicado en la revista Nature , “los LLM [Large Language Models] más nuevos pueden parecer impresionantes y ser capaces de resolver algunas tareas muy sofisticadas, pero no son confiables en varios aspectos”.

La tendencia no parece mostrar mejoras claras, sino todo lo contrario.

Según Zhou, una de las razones de este resultado es que las recientes actualizaciones tienden a reducir la probabilidad de que los nuevos sistemas reconozcan la incertidumbre o la ignorancia sobre un tema en particular. 

De hecho, parece que los cambios realizados estuvieron motivados por “el deseo de hacer que los modelos lingüísticos intenten decir algo aparentemente significativo”, incluso cuando los modelos se encuentran en un territorio incierto.

El peligro resultante es obvio. De hecho, según Lucy Cheke, profesora de psicología experimental en la Universidad de Cambridge, “las personas confían cada vez más en sistemas que producen en su mayoría información correcta, pero mezclan la cantidad justa de información plausible pero errónea para causar problemas reales.

 Esto se vuelve particularmente problemático a medida que las personas dependen cada vez más de estos sistemas para responder a preguntas complejas a las que no estarían en condiciones de detectar una respuesta incorrecta”. 

El uso de estos sistemas para proporcionar asesoramiento en materia de salud mental o asesoramiento médico, enseñar a nuestros estudiantes o controlar sistemas de armas es un desastre a punto de ocurrir.
Un poco de perspectiva

Los líderes tecnológicos afirman con seguridad que la IA conducirá a cambios revolucionarios en nuestra economía, impulsando la productividad y el bienestar de la mayoría. Y si queremos cosechar los frutos esperados, debemos quitarnos de en medio. 

Pero ¿qué podemos esperar realmente de las enormes inversiones relacionadas con la IA proyectadas para los próximos años?

Una manera de fundamentar nuestras expectativas es considerar las consecuencias económicas del auge tecnológico de finales de los años 1990, que incluyó la creciente popularidad y el uso masivo de las computadoras, Internet y el correo electrónico. 

Se dijo en su momento que este período crucial marcaba el comienzo de la era de la información y un futuro de expansión económica sin fin. 

En cuanto a los beneficios económicos, los datos sobre las tendencias posteriores a la adopción de la tecnología en la productividad laboral estadounidense no son alentadores. Como informa el Fondo Monetario Internacional ,

El aumento de la productividad laboral se redujo de un 3-3,5 por ciento anual en los años 1960 y 1970 a cerca del 2 por ciento en los años 1980. A fines de los años 1990 y principios de los años 2000, la economía estadounidense experimentó un auge considerable pero temporal de la productividad, ya que el crecimiento de la misma repuntó al 3 por ciento. 

Desde aproximadamente 2003, el aumento de la productividad ha sido mediocre, y la productividad laboral se desaceleró a una tasa de crecimiento promedio de menos del 1,5 por ciento en la década posterior a la Gran Recesión.

Sí, estas tecnologías y las muchas empresas y productos que han generado han cambiado la forma en que trabajamos y vivimos, pero las consecuencias económicas han estado lejos de ser “revolucionarias”, si con eso queremos decir que han mejorado significativamente la vida de la mayoría de las personas. 

Los ingresos de los trabajadores y el crecimiento económico han seguido la productividad laboral en una trayectoria descendente similar. 

Y dadas las limitaciones de los sistemas de IA, es difícil imaginar que su uso resulte más eficaz para producir fuertes ganancias de productividad y mayores ingresos para los trabajadores. 

Por supuesto, ese no es realmente el objetivo principal del esfuerzo. Las empresas tecnológicas han ganado mucho dinero a lo largo de los años y están en condiciones de ganar mucho más si logran que sus diversos sistemas de IA se adopten ampliamente.

La contraataque

A cambio de su promesa de un futuro de “productos y servicios cuasi infinitos”, las empresas tecnológicas exigen que ayudemos a financiar ( mediante créditos fiscales, cambios de zonificación y subsidios a la inversión) la construcción masiva de centros de datos que consumen mucha energía y agua y que necesitan para desarrollar y operar sus sistemas de IA. 

No hay ninguna ganancia para nosotros en esto; de hecho, Bloomberg News informa que la propia investigación de Microsoft sobre el uso de la IA:

muestra una tendencia inquietante: cuanto más confiamos en la IA, menos pensamos por nosotros mismos...

Los investigadores encontraron un patrón sorprendente: cuanto más confiaban los participantes en la IA para ciertas tareas, menos practicaban esas habilidades, como la escritura, el análisis y las evaluaciones críticas. Como resultado, ellos mismos informaron una atrofia de las habilidades en esas áreas. 

Varios encuestados dijeron que comenzaron a dudar de sus habilidades para realizar tareas como verificar la gramática en el texto o redactar cartas legales, lo que los llevó a aceptar automáticamente cualquier cosa que la IA generativa les diera.

¿Y quién será el culpable cuando la calidad del trabajo se deteriore o las alucinaciones provoquen errores graves? 

Puedes apostar a que no serán los sistemas de inteligencia artificial que cuestan miles de millones de dólares.

¿Qué se debe hacer, entonces? 

A riesgo de decir algo obvio, debemos cuestionar las exageradas afirmaciones de las principales empresas tecnológicas y exigir que los medios de comunicación dejen de tratar sus comunicados de prensa como si fueran noticias duras.

 Debemos resistir la construcción de centros de datos cada vez más grandes y de los sistemas de energía necesarios para hacerlos funcionar. 

Debemos luchar para restringir el uso de sistemas de IA en nuestras instituciones sociales, especialmente para protegernos de las consecuencias destructivas de los algoritmos discriminatorios. 

Debemos organizarnos en los lugares de trabajo para garantizar que los trabajadores tengan voz y voto en el diseño y el uso de cualquier sistema de IA que se proponga.

 Y debemos asegurarnos siempre de que los humanos tengan la capacidad de revisar y, cuando sea necesario, anular las decisiones de la IA.


Related Posts

Subscribe Our Newsletter