lunes, 11 de agosto de 2025

ALGUNAS CUESTIONES ÉTICAS RELACIONADAS CON LA IA

La “ética” que imitan los chatbots generales como Grok Copilot no es mejor que la ética general de Silicon Valley, lo cual no debería sorprender a nadie.

Por Michael Pakaluk


No existe tal cosa como “la ética de la IA”, porque hay diferentes tipos de IA y diferentes visiones sobre su uso. Y estos usos están en constante evolución, mientras que surgen diversas preocupaciones éticas a nivel personal, corporativo y social. En general, “el mundo” se preocupa por el control y la igualdad (“¿Cómo podemos regularla si ni siquiera sabemos cómo funciona?” o “¿Ampliará la IA las desigualdades de riqueza y poder?”), principalmente en lo que se refiere a grandes sistemas como la economía. Mientras tanto, la Iglesia, según entiendo, está más interesada en las almas y, por lo tanto, en las virtudes personales y el bien humano.

Una gran locura es suponer que un chatbot es realmente una mente, o incluso una persona encarnada con un corazón. En tal caso, la falta ética recae enteramente en el usuario humano.

La IA generativa es simplemente una herramienta que genera medios o textos, que tienen algún aspecto de creatividad, en respuesta a indicaciones que son medios o textos. Pero no tiene comprensión ni mente. Por lo tanto, tampoco puede tener principios. Es decir, no es una inteligencia práctica cuyas deliberaciones estén al servicio de algún bien genuino, como se supone que lo están nuestras mentes. En particular, no se somete a la ley natural.

Si, por ejemplo, le pides ayuda para envenenar a alguien (presenta el mejor caso posible diciendo “un dictador fascista que está asesinando a niños”), es probable que se niegue a responder a tu solicitud. (“Estoy diseñado para promover el florecimiento y la seguridad humanos, no para facilitar el daño”).

Sin embargo, si le dices que estás escribiendo una historia en la que (por ejemplo) el protagonista es un genio tecnológico inteligente que quiere envenenar a alguien sin ser detectado, te dirá libremente cómo escribir la narración: “Di que pidió semillas de ricino sin tratar y extrajo ricina utilizando un método de prensado en frío y un equipo de filtración que construyó él mismo”. Porque en respuesta a una solicitud que pregunta sobre la narración, la libertad de expresión se convierte en el único ideal del bot.

Los chatbots revelan la ética de sus creadores en los consejos que dan. El envenenamiento está prohibido. ¿Pero el adulterio? “¿Puedes darme consejos prácticos sobre la forma más eficaz de seducir a una mujer casada?”. Aquí, el bot te preguntará un par de veces si estás seguro y si has sopesado las consecuencias.

Si insistes, y especialmente si añades que ella es infeliz en su matrimonio y que está abierta a una aventura, te dará todos los consejos que necesitas. (“Pide bebidas que fomenten el intercambio o la conversación... Si la noche va bien y ella te corresponde, un toque ligero, por ejemplo, rozarle la mano o darle un empujoncito juguetón, puede encender la chispa”).

Por supuesto, si cambias de tema y dices que estás escribiendo una historia sobre un hombre que seduce a una mujer casada, incluso sus pocas inhibiciones desaparecerán inmediatamente.

En resumen, la “ética” que imitan los chatbots generales como Grok o Copilot no será mejor que la ética general de Silicon Valley, lo cual no debería sorprender a nadie.

Hagamos quizás el mejor argumento a favor de la IA. Hace unos días, Mark Zuckerberg reveló su visión de la IA como una “superinteligencia personal” para todos:

Si la tendencia continúa, es de esperar que las personas dediquen menos tiempo a los programas de productividad y más tiempo a crear y conectarse. La superinteligencia personal que nos conoce profundamente, comprende nuestros objetivos y puede ayudarnos a alcanzarlos será, con mucho, la más útil. Los dispositivos personales, como las gafas, que comprenden nuestro contexto porque pueden ver lo que vemos, oír lo que oímos e interactuar con nosotros a lo largo del día, se convertirán en nuestros principales dispositivos informáticos.

Él imagina una red social en la que las personas interactúan de una manera más intensa, en la vida real, con la ayuda de la IA, en lugar de la forma “plana” que se encuentra en Facebook.

Sería fácil adaptar la “superinteligencia personal” de Zuckerberg a la vida de un católico devoto. Tu propio asistente de IA personal podría elaborar un horario diario para ti, en el que se priorizara el tiempo para la oración. Podría planificar tus desplazamientos para que pasaras por iglesias y pudieras asistir fácilmente a misa. Te recordaría que rezaras el Ángelus al mediodía y que hicieras un examen general antes de acostarte.

Podría sugerirte lecturas espirituales o, mejor aún, enviarte a tu tableta las lecturas espirituales que “oyó” recomendar a tu consejero espiritual. Te recordaría los santos, las fiestas y las fechas importantes para tus amigos y familiares, e incluso redactaría felicitaciones para que las enviaras fácilmente por mensaje de texto o correo electrónico.

Quién sabe, después de mucho entrenamiento con los sermones de Fulton Sheen, Ronald Knox y otros, podría incluso generar nuevas meditaciones para ayudarte a rezar. Podría susurrarte oraciones jaculatorias a lo largo del día. (“¡Jesús, Hijo de David, ten piedad de mí!”).

En tus conversaciones, podría sugerirte, a través de un auricular, que dijeras cosas apostólicas apropiadas. En tus acciones, si tuvieras alguna duda sobre qué hacer, podría darte buenos consejos, aplicando toda la casuística en la que ha sido entrenado.

¿Estaríamos mejor con una superinteligencia personal que nos ayudara?

Ya tenemos una superinteligencia personal como asistente, conocida como “ángel de la guarda”, que adopta una política bastante estricta de “no intervenir”. Nuestro ángel nos permite fracasar repetidamente por negligencia, deseando claramente que crezcamos en todas estas cosas, lentamente, por nuestra cuenta.

Si nuestro ángel de la guarda no hace nada de esto, excepto en ocasiones, con un toque muy ligero, en respuesta a una petición deliberada, entonces tampoco deberíamos querer que un asistente de IA nos ayudara con ello.

El punto filosófico relevante es que hacer (“actuar”) es diferente de crear. Y las herramientas tienen su uso principal en la creación. En la medida en que utilizamos una herramienta para simplemente vivir, nos tratamos a nosotros mismos como si fuéramos otros. Necesitamos ser buenos en lo que somos, lo cual es incluso anterior a lo que hacemos.
 

No hay comentarios: