La IA:ventajas y riesgos.
- Editorial Semana

- hace 6 días
- 3 Min. de lectura

La Inteligencia Artificial (IA) ocupa un nuevo espacio en nuestra cotidianidad por su perfil innovador en la tecnología de acceso a información. Más recientemente, la IA se ha transformado de ser un instrumento dirigido a generar respuestas para convertirse en sistemas capaces de analizar información, coordinar procesos y ejecutar tareas de forma supervisada, incluso, de forma autónoma, dentro de las reglas y objetivos explícitamente trazados por las personas y organizaciones que la utilizan.
A pesar de su utilidad, muchos la usan sin entender propiamente sus virtudes y limitaciones, acreditando como cierto todo lo que responde u ofrece la IA sin corroborar la verosimilitud de la información. En Puerto Rico, el Tribunal Supremo ha amonestado a abogados por utilizar la IA al elaborar Mociones y otros recursos sin validar el contenido provisto, exponiendo a inducir a error al juzgador. Por fortuna, existen herramientas capaces de identificar estas prácticas antiéticas, que no se limitan a acciones judiciales, sino también en la redacción de escritos conducentes a grados académicos y proyectos de trabajo para quienes quieren alcanzar metas usando atrechos.
Otro ángulo para poner el punto de mira es a consideraciones éticas y morales de las herramientas de IA. Uno de los más preocupantes fue el intento del Pentágono para que una de las inteligencias artificiales más avanzadas, Anthropic, eliminase dos restricciones del contrato que mantenía con el Departamento de Defensa de los Estados Unidos. La primera prohibía que Claude -el nombre de la IA de Anthropic- usara armas autónomas letales sin contar antes con el criterio humano de frenar estas agresiones. Mientras, la otra prohibía la vigilancia masiva de ciudadanos americanos con propósitos de inteligencia nacional, es decir, el “carpeteo” religioso, político o ideológico. Al negarse Anthropic, el Pentágono canceló el contrato que tenía con esta ascendente a $200 millones de dólares, para pasarlo a su mayor competidor, OpenAI, o ChatGPT, que accedió a lo que, por consideraciones éticas y morales, se negó hacer Anthropic.
A raíz de los riesgos de dejar que la IA tuviera algo así como una patente de corso sobre la información privada y aspectos de seguridad de vida a manos de inteligencia no humana, Anthropic organizó una cumbre de dos días en su sede en San Francisco, a la que invitó a líderes religiosos para discutir la creación de un modelo de inteligencia artificial basado en cómo se desarrolla el pensamiento ético en la persona humana. A su vez, varios religiosos acudieron ante el tribunal federal de California como amicus curiae planteando, en resumen, que “las decisiones que afectan a la vida humana, la libertad y la dignidad deben seguir siendo responsabilidad de actores humanos”. El tribunal terminó por bloquear la designación del Pentágono, arguyendo que este organismo parecía castigar a Anthropic como represalia ilegal contra la Primera Enmienda de la Constitución estadounidense.
El papa León XIV también se expresó sobre este asunto, al declarar que, “ningún algoritmo puede decidir sobre la vida o la muerte de un ser humano” pues esto representa “una traición sin precedentes a los principios del cristianismo”, y solicitó una moratoria sobre armas autónomas letales en la Conferencia de Desarme de la ONU en Ginebra.
Aunque es una herramienta de gran utilidad si es usada ética y correctamente, el tema de la IA, lejos de ser trivializado, debe mantenernos en alerta, pues subyacentemente tiene repercusiones a la seguridad personal y colectiva.




Comentarios