Geografía de los suelos urbanos
Un tema en desarrollo para las ciudades de América Latina
por Carlos Enrique Castro Méndez
RESPONSABILIDAD EPISTEMOLÓGICA EN TIEMPOS DE INTELIGENCIA ARTIFICIAL
por Carlos Enrique Castro Méndez
Domingo, 21 Diciembre 2025 06:47

Introducción

Actualmente realizo una estancia posdoctoral en una universidad internacional, donde desarrollo una línea de investigación orientada a la innovación en las formas de hacer investigación en las ciencias de la Tierra. Hablo de innovación en un sentido amplio, porque la generación de cartografía de suelos, uno de los ejes centrales de mi trabajo, exige integrar múltiples factores formadores del suelo: el clima, la litología, el relieve, la cobertura vegetal, los organismos, la hidrología y, en general, la expresión morfológica de la interacción de estos elementos a lo largo del tiempo.

Todas estas dimensiones de las ciencias de la Tierra confluyen, de manera concreta, en los datos obtenidos durante el trabajo de campo. En este contexto, la calidad del dato se convierte en un aspecto importante, ya que de ella depende la precisión de la representación cartográfica del suelo. Dicha cartografía no solo tiene una utilidad productiva o ambiental, sino que resulta determinante para los procesos de planificación y ordenamiento territorial.

Tanto el suelo urbano como el rural presentan potencialidades y limitaciones que deben ser identificadas, analizadas y representadas de forma rigurosa. Cartografiar el suelo es, en última instancia, una forma de traducir el territorio en conocimiento útil para la toma de decisiones.

En este espacio presento algunas ideas generales y reflexiones derivadas de esta experiencia investigativa, con el propósito de contribuir al debate académico y a la comprensión del papel del suelo en los desafíos territoriales contemporáneos.

Inteligencia Artificial: ¿Creadora de Conocimiento o Herramienta Avanzada?

La inteligencia artificial (IA) genera un asombro constante. Sus capacidades para redactar textos, analizar datos complejos o crear imágenes nos hacen cuestionar la naturaleza misma del conocimiento y la creatividad. Sin embargo, detrás de esta aparente magia se esconde una realidad más sencilla y, a la vez, más profunda. La tesis central de este texto es que la IA no es un autor autónomo de conocimiento, sino una sofisticada herramienta de apoyo cognitivo. Para comprender esta distinción, exploraremos cómo funciona realmente la IA, los riesgos inherentes que presenta, como la amplificación de sesgos y, finalmente, por qué la supervisión y el pensamiento crítico humano son más indispensables que nunca.

1. ¿Qué hace realmente la IA? El Secreto detrás de la Magia

A pesar de su nombre, la inteligencia artificial no "piensa" ni "comprende" en el sentido humano. No posee conciencia ni una motivación propia. Su funcionamiento se basa en algo muy diferente: el procesamiento estadístico de enormes volúmenes de datos que han sido previamente creados por seres humanos. La IA es, en esencia, una formidable máquina de identificar patrones. Analiza millones de textos, imágenes y códigos para aprender las probabilidades de que una palabra siga a otra o un píxel se sitúe junto a otro.

Para ilustrarlo, podemos usar una analogía: imaginemos a un estudiante que ha memorizado todos los libros de una biblioteca. Podría recitar pasajes enteros, conectar citas y responder preguntas factuales con una velocidad sobrehumana. Sin embargo, este estudiante es incapaz de generar ideas verdaderamente originales porque carece de comprensión semántica para entender el significado de las palabras que reproduce; de intencionalidad para tener un propósito propio al formular una idea; y de capacidad reflexiva para cuestionar sus fuentes o evaluar la validez de un argumento. La IA opera de manera similar. Es un instrumento que amplía nuestras capacidades analíticas, pero su aparente inteligencia es un reflejo de los datos humanos con los que fue entrenada. Esta falta de comprensión real es la fuente de sus principales riesgos.

2. La Inteligencia Artificial requiere la supervisión crítica

La naturaleza algorítmica de la IA, desprovista de juicio y contexto, introduce dos peligros fundamentales que exigen una vigilancia constante por parte del usuario.

2.1. El Espejo de Nuestros Prejuicios

Los sistemas de IA aprenden del mundo tal como es, no como debería ser. Los datos con los que son entrenados —textos, artículos, registros históricos y conversaciones de internet— son un reflejo de la sociedad humana, con todos sus sesgos cognitivos, culturales y epistemológicos.

Un modelo de IA entrenado con datos históricos que asocian ciertas profesiones a un género determinado, o ciertos delitos a un grupo racial, no se limitará a reproducir estos prejuicios, sino que puede amplificarlos y sistematizarlos bajo una apariencia de objetividad técnica. Lo que el algoritmo presenta como un resultado neutral es, en realidad, el eco de desigualdades y estereotipos pasados. Esto exige una reflexión crítica constante por parte del usuario, quien debe preguntarse no solo qué dice la IA, sino por qué lo dice y qué prejuicios podría estar perpetuando.

2.2. La "Sabiduría Digital". Información sin Comprensión

El uso acrítico de la IA puede dar lugar a un fenómeno que algunos autores denominan "sabiduría digital no humana". Este concepto no se refiere a conocimiento genuino, sino a una agregación automatizada de información y patrones completamente desprovista de comprensión, intencionalidad y responsabilidad moral. La aparente eficiencia de estos sistemas puede llevar a una sobrevaloración de sus conclusiones, pero esta "sabiduría" no es solo una limitación técnica; a menudo responde a lógicas de optimización, rendimiento y escalabilidad propias de los sistemas económicos globalizados. Al hacerlo, tiende a desvincularse de las necesidades sociales, culturales y territoriales concretas, transformando el saber en un producto funcional. La confianza ciega en esta eficiencia nos aleja de la verdadera producción de conocimiento, que siempre debe estar anclada en el juicio y la responsabilidad humana.

3. El Factor Humano y su criterio

Si la IA es una herramienta, el artesano sigue siendo el ser humano. El papel del pensamiento crítico, la ética y el juicio experto no solo es relevante, sino que se vuelve central. La Taxonomía de Bloom, un marco que jerarquiza los procesos cognitivos, nos ayuda a entender dónde encaja la IA y por qué el ser humano es insustituible.

3.1. Más Allá de Recordar y Aplicar

El conocimiento no es un acto único, sino un proceso escalonado que va de lo simple a lo complejo. La siguiente Figura muestra cómo la IA puede asistir en los niveles inferiores de esta jerarquía, mientras que los niveles superiores dependen fundamentalmente del juicio humano.

Figura 1. Taxonomía de BLOOM

Creación de la IA

Como muestra la figura, la IA es una poderosa aliada en las tareas cognitivas fundamentales, pero las habilidades de orden superior, el análisis crítico, la evaluación ética y, sobre todo, la creación de conocimiento original depende del juicio, la reflexión y la responsabilidad del investigador humano.

3.2. La Responsabilidad de Saber

El principio ético fundamental es claro: la responsabilidad epistemológica recae siempre en la persona, no en la herramienta. Aplicar un sistema de IA, por más avanzado que sea, a un problema que el propio investigador no ha comprendido profundamente es un acto de "negligencia epistemológica". El fracaso ético no consiste solo en obtener respuestas incorrectas, sino en corromper el proceso mismo de la investigación desde su origen.

Comprender el problema es la condición que orienta la formulación de preguntas, la selección de métodos y la interpretación responsable de los resultados. Delegar estas decisiones a una máquina es renunciar al rigor, transformando deberes ineludibles como la verificación sistemática de fuentes, el contraste de resultados con el marco teórico y la evaluación de la coherencia en meras opciones. Solo así se puede garantizar un uso ético y científicamente válido de la tecnología, asegurando que los fines de la investigación guíen a la herramienta, y no al revés.

4. Conclusión

En definitiva, la inteligencia artificial no es una mente autónoma ni una fuente de sabiduría. Es un instrumento de un poder sin precedentes, un espejo estadístico que refleja, procesa y recombina el vasto universo de conocimiento creado por la humanidad. Su funcionamiento, basado en patrones y no en comprensión, la hace susceptible de amplificar nuestros sesgos y exige una supervisión crítica y constante. La verdadera inteligencia no reside en la velocidad del algoritmo, sino en la capacidad humana para formular las preguntas correctas, interpretar los resultados con escepticismo y asumir la responsabilidad ética de cada conclusión. La llegada de la inteligencia artificial no nos obliga a preguntarnos si las máquinas pueden pensar, sino a redefinir con mayor urgencia y claridad qué significa para nosotros pensar, conocer y asumir la responsabilidad de nuestro saber.

Banner recibir info