1000018371.jpg

<aside> <img src="/icons/arrow-down_gray.svg" alt="/icons/arrow-down_gray.svg" width="40px" />

De la Inteligencia Artificial al Agente Humano en el Desarrollo Tecnológico

Fecha: 12 de diciembre del 2025

Ámbito: Filosofía de la Tecnología, Ética Aplicada, Estudios CTS (Ciencia, Tecnología y Sociedad)

Formato: Nota de análisis crítico — Resumen ejecutivo académico

</aside>

1. Tema Central .

El miedo social y ético no debe dirigirse hacia la Inteligencia Artificial como entidad, sino hacia los desarrolladores humanos y las estructuras institucionales que diseñan, programan y despliegan estos sistemas, ya que la IA carece de agencia moral y actúa únicamente como amplificador de las intenciones y valores de sus creadores.

2. Desglose del Argumento

Premisa 1: La IA no es un agente moral

· Cualidad técnica: Sistemas de procesamiento de datos basados en patrones estadísticos.

· Ausencia de: Conciencia, intencionalidad, deseo o voluntad propia.

· Evidencia del texto: "No tiene conciencia, no tiene intenciones, no desea poder."

Premisa 2: La IA es un espejo tecnológico

· Refleja los valores, sesgos y objetivos de sus programadores.

· Amplifica capacidades humanas (para bien o para mal).

· Ejemplo del texto: Sesgos algorítmicos son sesgos humanos codificados.

Premisa 3: El verdadero riesgo es humano

· Riesgo 1: Intenciones ocultas o no éticas en el diseño.

· Riesgo 2: Negligencia en la validación de datos y algoritmos.

· Riesgo 3: Falta de transparencia y regulación en el desarrollo.

· Cita clave: "El peligro no está en el código, sino en la intención de quien lo escribe."

3. Implicaciones Prácticas (¿Qué hacer entonces?)

No temer a... Sí vigilar y regular a...