Home / Opinión / La ética del algoritmo: ¿puede una máquina tener moral?

La ética del algoritmo: ¿puede una máquina tener moral?

Antonio Guerrero

Si Aristóteles levantara la cabeza y viera a Siri discutiendo con ChatGPT sobre cuál de los dos entiende mejor la virtud, probablemente pediría que lo devolvieran al sepulcro. Y no porque odiara la tecnología, sino porque, para él, la moral nacía de la experiencia, del hábito… y dudo que un algoritmo pueda practicar la templanza entre una actualización y otra.

Vivimos rodeados de máquinas que deciden sin pestañear: qué vídeo vemos, a quién seguimos, si un crédito se aprueba o si una foto es “inapropiada”. No tienen corazón, pero deciden por nosotros. Y aquí surge la gran pregunta: ¿puede una máquina ser ética si ni siquiera puede sentir culpa? Kant estaría indignado: ¿cómo hablar de deber sin voluntad libre? Un algoritmo cumple órdenes; obedece ciegamente a su código, como un soldado que no pregunta por qué, solo ejecuta.

Sin embargo, no todo es pesimismo. Algunos programadores —esos nuevos filósofos con teclado— intentan dotar a las inteligencias artificiales de una especie de brújula moral: “si atropellas, prioriza al peatón mayor”, “si detectas discurso de odio, modéralo”. Pero claro, ¿qué pasa cuando la moral depende del contexto, del matiz, del tono? Una máquina puede calcular mil variables, pero no entiende la ironía. Imagina que Sócrates dijera “solo sé que no sé nada” y el algoritmo le contestara: “Error de sintaxis, afirmación contradictoria”.

La ética del algoritmo es, en realidad, nuestra ética reflejada en código. Si el programa discrimina, es porque alguien, en algún despacho con aire acondicionado, le enseñó a hacerlo. Si promueve la belleza irreal, es porque nosotros premiamos los filtros imposibles. La máquina no tiene moral, pero amplifica la nuestra: la hace visible, cuantificable y, a veces, brutalmente honesta. En ese sentido todo lo que sucede en el mundo digital es fruto de la moral de programadores informáticos apostados en unos despachos de EEUU.

Quizá la pregunta no sea si la IA puede tener moral, sino si nosotros la tenemos todavía. Porque mientras discutimos si los robots deberían tener derechos, seguimos sin resolver si los humanos los respetamos. Y tal vez, cuando la primera máquina diga “lo siento” sin que lo haya programado nadie, ese día sí debamos preocuparnos.

Hasta entonces, que los algoritmos decidan el mejor meme, pero no el sentido de la vida. Eso sigue siendo cosa nuestra.

Sumario: Los algoritmos de la IA no son éticos ni inmorales: simplemente amplifican nuestra propia ética, la de los programadores.…….……………….

Antonio Guerrero Ruiz

Doctor en Filosofía. Profesor UNED

Presidente Filosofía en la calle

Comité bioética Poniente y Observatorio Internacional OIDDHH

Deje un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Exit mobile version