
Últimamente, escucho a menudo a personas preguntarse: “¿La inteligencia artificial reemplazará mi trabajo?” Quizás tú también lo hayas pensado. Más allá de una simple cuestión del mercado laboral o de las expectativas salariales, esta pregunta pone en tela de juicio nuestro papel en la sociedad y nuestra capacidad para seguir siendo relevantes con el paso del tiempo.
Vale la pena abordar esta duda de una vez por todas, especialmente porque es una preocupación compartida. Por eso he escrito este breve ensayo: espero que mis reflexiones ayuden a las personas a reconocer las muchas oportunidades que nos ofrece el futuro.
Juntos, a través de cuatro secciones, exploraremos lo siguiente:
- Una visión teórica de las capacidades y limitaciones de la Inteligencia Artificial.
- Un análisis práctico de sus aplicaciones reales y fronteras.
- Conclusiones y reflexiones personales que podemos extraer de estos escenarios.
- Sugerencias clave sobre cómo sacar el mejor provecho de la Inteligencia Artificial (IA).
Parte 1 – Una premisa teórica
Ya en 2019, algunos reconocían la existencia de una “larga historia de fracasos al intentar lograr una inteligencia general en la Inteligencia Artificial” [1][1], un desafío que sigue sin resolverse. Esto se debe principalmente a la naturaleza escurridiza de la definición de inteligencia, así como al concepto de razonamiento.
Sobre este tema, Yu y otros observaron: “aunque el razonamiento ha recibido cada vez más atención […], aún falta una definición clara de lo que es el razonamiento” [3].
Tras 2023, entramos en la era “Post-ChatGPT” era [2][2]. Pero, ¿realmente nos ha dado esto una idea más clara de qué es la inteligencia?
Se podría definir la inteligencia como “el cumplimiento de objetivos” [1], while reasoning might be described as “usar la evidencia y la lógica para llegar a conclusiones” [3].
Aunque estas definiciones no son perfectas, nos permiten abarcar una amplia gama de procesos cognitivos y ofrecen un punto de partida para comprender mejor la IA y sus límites.
Analicemos tres tipos de razonamiento:
- Razonamiento inductivo: deriva una regla general a partir de casos específicos. Su fiabilidad depende de la fuerza de las premisas.
- Razonamiento deductivo: permite llegar a una conclusión específica desde una regla general. Es fiable, siempre que las premisas sean correctas.
- Razonamiento abductivo: lleva a una conclusión general desde una regla general, pero su resultado siempre es incierto.
Si bien los humanos pueden usar los tres tipos, los intentos de entrenar modelos de lenguaje muestran que estos sistemas “todavía dependen en gran medida del esfuerzo humano” [4] to reach conclusions similar to human reasoning.
Para que las máquinas sigan un razonamiento deductivo, deben ser capaces de “generalizar lo que saben para predecir en nuevos contextos” [5][5]. Este es uno de los mayores desafíos en la evolución de la IA.
Podríamos hipotetizar que, en el futuro, se lograrán avances significativos al combinar la IA con la computación cuántica [6]. [6].
Esta combinación, o “computación cuántica híbrida” [7], which integrates quantum computing with classical algorithms [7], could represent the evolution of future computational architectures.
However, experts remain cautious about the timeline for quantum computing development, especially in critical sectors such as cybersecurity [9]. In general, we can state that “a pesar del progreso, varios desafíos clave siguen dificultando su adopción masiva”.
Las investigaciones indican que solo construir una computadora cuántica no será suficiente para superar todas las limitaciones actuales. De hecho, “los ordenadores cuánticos pueden realizar simulaciones complejas con facilidad, pero puede que no proporcionen ninguna mejora en tareas simples como la navegación web” [10].
Currently, the use of language models like BERT has demonstrated that we can imitate inductive reasoning only in certain empirical circumstances [5]. However, the inability to achieve significant progress in other logical domains beyond deductive logic is not just a matter of technical development.
Studies indicate that to develop an Artificial Intelligence capable of more faithfully imitating human reasoning, it will be necessary to integrate elements of psychological theories [5] and philosophy [4] into technological research.
Estos elementos, junto al creciente debate sobre si la inteligencia puede reducirse a una sola capacidad, desafían las definiciones tradicionales del concepto [11]. [11].
Podemos concluir que, para crear una máquina capaz de pensar como un ser humano, primero debemos superar obstáculos técnicos y culturales. El verdadero reto no está solo en traducir el razonamiento humano a un proceso replicable, sino en entender cómo razonamos nosotros mismos.
Parte 2 – Una explicación práctica
En la sección anterior, describimos algunos tipos de razonamiento, pero podrían añadirse otros a la lista, como el pensamiento lateral [11] y otras formas de procesamiento cognitivo [12]. [12].
Volviendo a las definiciones de inteligencia como “el cumplimiento de objetivos” [1] y de razonamiento como “el uso de evidencia y lógica para llegar a conclusiones” [3], emergen inmediatamente dos áreas que aún no han sido abordadas:
- Actividades inteligentes que no están orientadas a objetivos, como la creatividad pura o la reflexión sin un propósito específico.
- Actividades de razonamiento basadas en el sentido común, que no dependen únicamente de la evidencia formal, sino de la intuición y el "“conocimiento implícito del sentido común” [3].
Estos aspectos presentan desafíos adicionales para construir una Inteligencia Artificial que se acerque verdaderamente al pensamiento humano.
Consideremos un ejemplo empírico simple de cómo se aplicarían los tres tipos de lógica analizados en la sección anterior sin contar con sentido común:
“Me encanta Milán cuando llueve y las calles están mojadas. Incluso ahora, en verano, me gustaría experimentar esa sensación. ¿Qué debería hacer?”
- Pensamiento lateral → Consultar el pronóstico del clima y volver cuando llueva. (Una solución práctica y directa basada en observar la realidad).
- Lógica inductiva → Aunque no puedas saber exactamente cuándo lloverá, tarde o temprano es un evento estadísticamente posible. Si aceptas la incertidumbre, deberías consultar el clima cada hora o cada día hasta que llueva. (Una solución basada en la probabilidad y en observaciones previas).
- Lógica deductiva → Si Milán no está mojada como lo está cuando llueve, entonces no puedes amarla. Para resolver el problema, hay que mojar las calles de Milán. (Una solución rigurosa pero sin sentido, ya que aplica una premisa de forma rígida sin considerar la viabilidad.)
Este ejemplo demuestra cómo, sin sentido común, el razonamiento puede producir soluciones que, aunque lógicas, no son necesariamente prácticas o realistas.
Si le pidiéramos a una IA una solución al mismo problema, probablemente obtendríamos algo así: “Si deseas recrear la sensación de las calles mojadas de Milán, aquí tienes algunas ideas que podrían ayudarte a evocar la atmósfera que amas”
- Visitar zonas con fuentes de agua.
- Limpiar las calles temprano por la mañana para simular la humedad.
- Crear una atmósfera personal, quizá con iluminación y sonidos apropiados.
- Ir a un lugar con alta humedad.
- Escuchar sonidos de lluvia a través de grabaciones.
La IA, por tanto, sugeriría soluciones creativas que, si bien no se basan estrictamente en la lógica tradicional, adoptan un enfoque más flexible y práctico para satisfacer el deseo de una experiencia sensorial.
Sin embargo, ¿no se parece la solución de la IA a la deductiva? No puede escapar de la premisa de que no está lloviendo, por lo que debe encontrar otra manera de que Milán esté mojada —quizás toda la ciudad— para maximizar las posibilidades de lograr el resultado deseado.
Incluso si entrenamos a nuestra IA para ofrecer una respuesta más realista formulando la pregunta de forma distinta, en esencia estaríamos empujando al modelo a imitar una lógica inductiva o natural.
Esto ocurre porque el razonamiento deductivo solo es válido en función de la solidez de sus premisas. Si una IA carece del contexto informativo suficiente, no estará limitada por lo que es probable o razonable, lo que podría llevar a conclusiones que, aunque absurdas, sean coherentes con los datos disponibles.
Currently, language models (LLMs) do not interact directly with the world [4], which limits the effectiveness of their deductive logic and makes them incapable of consistently and autonomously applying inductive logic—let alone lateral thinking.
Además, ninguno de estos tres tipos de lógica podría realmente imitar el sentido comúnque probablemente sugeriría la única respuesta sensata a la pregunta: “Quizá deberías mudarte a Londres” (con un toque de ironía).
Mientras la IA entrena para entender mejor nuestras necesidades, nosotros también podríamos entrenarnos para reconocer el desapego de la realidad que a menudo caracteriza las respuestas generadas por IA, aprendiendo a encontrar algo auténtico dentro de ese desapego.
Parte 3 – Mi conclusión
En la sección anterior, analizamos los desafíos que la IA deberá superar en los próximos años para mejorar significativamente sus capacidades de razonamiento, con el objetivo de convertirse en una alternativa útil en campos científicos […, 8, 9, 10]. También examinamos un ejemplo concreto que pone de relieve las limitaciones de los modelos de lenguaje actuales (LLMs) al enfrentarse a tareas de razonamiento complejo y las consecuencias de su incapacidad para reconocer situaciones “absurdas” o la falta de sentido común.
Además, señalamos que existen distintos tipos de inteligencia. Arjonilla y Kobayashi afirman que la evolución es un proceso de azar y selección, tanto inteligente como simple: “esta simplicidad se explica en gran parte por la falta de modelos, lo cual no impide que la evolución alcance metas complejas” [1].
También sabemos que la ausencia de modelos estrictos y la ineficiencia no han impedido que la vida evolucione ni que afronte la escasez de recursos; al contrario, estos factores han contribuido a su desarrollo.
Por lo tanto, podemos plantear la hipótesis de que el desarrollo de la inteligencia artificial y el de nuestra especie siguen caminos distintos: por un lado, nosotros buscamos definir y profundizar nuestra comprensión de la inteligencia explorando sus diversas facetas; por otro, el desarrollo de la IA, tal como lo hemos estructurado, tiende a optimizar solo aquellos subconjuntos de inteligencia que hemos logrado definir y comprender.
Siempre existirá una brecha entre nuestra inteligencia y una versión más eficiente de la misma. Para reducir esa brecha, tendremos que seguir evolucionando, aumentando la cantidad de inteligencia y razonamiento que podemos volver eficiente — entrando así en un ciclo que probablemente será infinito y paradójico.
Tal vez algún día la IA nos ayude, o incluso nos sustituya, en todas aquellas tareas que actualmente son repetitivas y predecibles. El objetivo será darnos más tiempo para potenciar los aspectos menos evidentes del trabajo que realizamos.
En el futuro, nuestros trabajos serán tan complejos que la IA, tal como la conocemos hoy, será simplemente una herramienta dentro de un sistema más amplio y sofisticado.
Entonces, volviendo a la pregunta inicial: ¿reemplazará la IA nuestros trabajos?
No podemos saber si, en el futuro, utilizaremos varios algoritmos juntos, del mismo modo que hoy usamos diferentes herramientas para tareas distintas. Sin embargo, en mi opinión, ver este proceso de delegar tareas repetitivas a las máquinas como una amenaza a nuestro lugar en el mundo a menudo proviene de nuestra tendencia a imaginar escenarios dramáticos y apocalípticos en los que se hará justicia definitiva sobre la humanidad [13]. [13].
Así como la IA comete errores al aplicar estrategias de razonamiento demasiado simplistas a realidades complejas, nosotros también caemos a menudo en nuestras propias falacias lógicas.
Por ejemplo:
- “Si desarrollamos la IA, automatizará cada vez más trabajos; si automatiza más trabajos, controlará todos los sectores. Si controla todos los sectores, los humanos dependerán de ella. Por lo tanto, la IA nos reemplazará.” → Esta es una falacia de pendiente resbaladiza, donde se asume que un paso lleva inevitablemente al siguiente sin considerar otras posibilidades.
- “Si la IA reemplazará a la humanidad, veremos que toma más y más trabajos. La IA ya está tomando más trabajos. Por lo tanto, la IA reemplazará a la humanidad.” → Esta es una falacia de afirmación del consecuente, donde se asume que una parte de la proposición prueba la otra, llevando a una conclusión incorrecta.
Nuestra tendencia a aceptar estas y otras falacias lógicas no solo nos aleja de comprender verdaderamente los fenómenos tecnológicos, sino que también retrasa el progreso tecnológico y social.
Quizá este sea el aspecto más profundo que debemos intentar comprender, y está estrechamente ligado a lo que llamamos sentido común: nuestra capacidad para convivir con contradicciones —una inteligencia por derecho propio. sentido común: our ability to live with contradictions—an intelligence of its own.
No dar esta capacidad por sentada nos hace más empáticos, favoreciendo un entorno más saludable para nosotros mismos y quienes nos rodean.
A menudo, lo que consideramos un defecto en pequeñas cosas —como el impulso de actuar contra el sentido común para demostrar que podemos desafiar una verdad establecida— es en realidad una demostración de cómo podemos ir más allá de los límites del pensamiento computacional, aplicando inteligencia y razonamiento de forma compleja y no lineal.
Este tipo de pensamiento nos anima a reflexionar sobre quienes nos rodean de forma más positiva, permitiéndonos apreciar aspectos de su personalidad que, desde una perspectiva de eficiencia puramente social, podrían ser desalentados.
De algún modo, podríamos decir que hoy estamos más orientados por un propósito que nunca antes. Ahora que hemos comenzado a mapear partes de nuestra inteligencia, tendremos más tiempo para cuestionarnos qué más nos hace humanos —y eso es una idea esperanzadora.
Parte 4 – Consejos para sacar el máximo provecho de la IA
Ahora que hemos explorado la relación entre la inteligencia artificial y nuestra humanidad, ¿por qué no practicar cómo integrarla en nuestra vida cotidiana?
Para quienes utilizan modelos de lenguaje (como ChatGPT, Google Bard, Copilot y otros), hay cuatro prácticas sencillas de higiene cibernética que considero especialmente útiles para maximizar el potencial de la IA y, al mismo tiempo, reducir los riesgos: Cyber Hygiene practices that I find particularly useful for maximizing AI’s potential while minimizing risks:
- Busca ideas, no soluciones: Un lienzo en blanco con algo de guía no necesariamente limita la creatividad de un artista; de hecho, puede ayudarle a construir una base sólida para su diseño. De forma similar, la IA puede proporcionarte sugerencias e ideas útiles que luego puedes desarrollar y perfeccionar mediante tu propio pensamiento crítico.
- Proporciona contexto y segmenta bien las conversaciones: No tienes que reinventar la rueda cada vez, ni para ti ni para la IA. Algunas soluciones y enfoques ya se sabe que son más eficaces que otros. Si proporcionas el contexto adecuado y diriges la conversación hacia temas específicos, obtendrás respuestas más precisas y útiles.
- Indícale a la IA qué marco de decisión o referencia debe seguir: Hay infinitas líneas que pueden pasar por un solo punto, pero solo una que conecte dos. Si ya comprendes el problema, ¿por qué no aclarar también el objetivo? Al definir tanto el punto de partida como el de llegada, ayudas a la IA a trazar la línea recta entre ambos, facilitando encontrar la mejor solución.
- Pídele a la IA que explique y justifique su razonamiento: Las sugerencias anteriores pueden ayudarte a obtener una respuesta teóricamente óptima pero en la práctica, puede haber lagunas respecto a la realidad. Es útil pedirle a la IA que justifique sus elecciones, para así poder identificar posibles puntos ciegos y determinar si la solución propuesta cumple con tus criterios de aceptabilidad.
Al aplicar estas estrategias, podemos tratar a la IA como una herramienta que enriquece nuestro pensamiento y nos ayuda a alcanzar mejores resultados, todo ello mientras mantenemos sus limitaciones y sesgos bajo control.
Autor: Alessandro Mirani
Fuentes:
- [1] The Anthropocentrism of Intelligence: Rooted Assumptions that Hinder the Study of General Intelligence 03/2019 citation-340502392.bib
- [2] Exploring AI Ethics Syllabi Through NLP Cluster Analysis 05/2024 citation-381970113.bib
- [3] Natural Language Reasoning, A Survey 10/2024 acm_3664194.bib
- [4] Modelos de lenguaje como razonadores inductivos – 2024
- [5] Inductive Reasoning in Minds and Machines 09/2023 Bhatia S. Psychol Rev. 2023 Sep 21. doi: 10.1037/rev0000446. Epub ahead of print. PMID: 37732968.
- [6] Stefania Centrone, Klaus Mainzer – Lógica temporal – De la filosofía y la teoría de la demostración a la inteligencia artificial y la computación cuántica – World Scientific (2023)
- [7] ¿Qué sigue en la computación cuántica (artículo 2023) | MIT Technology Review".
- [8] Quantum Thread Timeline Report 2022
- [9] Hitos clave en la computación cuántica: Una cronología de 2016 a 2023
- [10] Present landscape of quantum computing pericles_263289251.bib
- Pensamiento vertical vs pensamiento lateral – 05/2008
- [12] ¿Qué es la IA? – 09/2023 Citation-374225905.bib
- [13] Un estudio sobre la formación espontánea de narrativas: coronavirus y narrativas apocalípticas