
<aside> <img src="/icons/arrow-down_gray.svg" alt="/icons/arrow-down_gray.svg" width="40px" />
De la Inteligencia Artificial al Agente Humano en el Desarrollo Tecnológico
Fecha: 12 de diciembre del 2025
Ámbito: Filosofía de la Tecnología, Ética Aplicada, Estudios CTS (Ciencia, Tecnología y Sociedad)
Formato: Nota de análisis crítico — Resumen ejecutivo académico
</aside>
1. Tema Central .
El miedo social y ético no debe dirigirse hacia la Inteligencia Artificial como entidad, sino hacia los desarrolladores humanos y las estructuras institucionales que diseñan, programan y despliegan estos sistemas, ya que la IA carece de agencia moral y actúa únicamente como amplificador de las intenciones y valores de sus creadores.
2. Desglose del Argumento
Premisa 1: La IA no es un agente moral
· Cualidad técnica: Sistemas de procesamiento de datos basados en patrones estadísticos.
· Ausencia de: Conciencia, intencionalidad, deseo o voluntad propia.
· Evidencia del texto: "No tiene conciencia, no tiene intenciones, no desea poder."
Premisa 2: La IA es un espejo tecnológico
· Refleja los valores, sesgos y objetivos de sus programadores.
· Amplifica capacidades humanas (para bien o para mal).
· Ejemplo del texto: Sesgos algorítmicos son sesgos humanos codificados.
Premisa 3: El verdadero riesgo es humano
· Riesgo 1: Intenciones ocultas o no éticas en el diseño.
· Riesgo 2: Negligencia en la validación de datos y algoritmos.
· Riesgo 3: Falta de transparencia y regulación en el desarrollo.
· Cita clave: "El peligro no está en el código, sino en la intención de quien lo escribe."
3. Implicaciones Prácticas (¿Qué hacer entonces?)
No temer a... Sí vigilar y regular a...