Abanico
No sólo es una cuestión de inminente desempleo. Tampoco se limita a cuestiones éticas. Ahora la Inteligencia Artificial (IA) también enfrenta peligrosos andamiajes legales. La historia recién comienza.
Todo parte de la Inteligencia Artificial generativa, la que crea contenidos como ChatGPT.
Ante la inminente disminución de la escritura humana, la automatización del contenido en apariencia representa un riesgo de desempleo para los creadores de contenido. Hay quien erróneamente vaticina el fin de los profesionales de publicidad o relaciones públicas. Es el temor legendario: la sustitución del hombre por máquinas.
Ese no es el meollo y nunca lo ha sido: se suplantarán tareas repetitivas y simples, porque en el corazón de todas las cuestiones éticas e incluso legales, la presencia del ser humano es ineludible. Así, aplicaciones como ChatGPT tienen un impacto real en diversas profesiones, pero son más preocupantes los cuestionamientos éticos e incluso riesgos legales de privacidad, propiedad intelectual y sesgo.
Veamos: Las aplicaciones generativas de IA utilizan consultas de usuarios para crear contenido. Entonces, existe una justa preocupación por la privacidad de los usuarios, ya que ellos comparten datos para facilitar una mejor experiencia de usuario.
Sin embargo, existe la posibilidad de que inadvertidamente se divulgue información patentada a una aplicación de IA generativa. Esto podría incluir información protegida intelectualmente, como los secretos comerciales. Además, existe el riesgo de violar información personal sensible, como revelar/compartir direcciones, estados de salud, información bancaria y otros.
Debido a que la IA generativa puede revisar el contenido y crearlo, los consumidores suelen ingresar grandes cantidades de contenido propietario que se guarda en la aplicación de IA. Como tal, el contenido propietario puede estar disponible para el público, inesperadamente, de forma gratuita.
Por otra parte, el contenido realizado por la IA generativa se extrae de innumerables fuentes que se introducen en el sistema. Se posibilita entonces una infracción involuntaria del contenido de otro propietario que se utiliza para conformar un nuevo texto producido por IA. También puede aparecer una infracción creada por solicitudes duplicadas y separadas al modelo de generación de idiomas.
Este problema se ve agravado por otras aplicaciones generativas de IA que pueden producir contenido artístico e imágenes. Aunque la falta de intención puede mitigar los daños en un reclamo de derechos de autor, no absuelve al infractor de la responsabilidad legal.
Debido a eso, la infracción involuntaria puede proliferar en industrias que utilizan ampliamente la IA para la creación de contenido.
Una cuestión más compleja se refiere a la protección de los derechos de autor otorgada a la IA. Debido a que no es realizada por humanos, no tiene protección bajo la ley de derechos de autor que requieren originalidad de la obra y que se fije en un medio tangible.
De manera paralela, la falta de citas puede crear escenarios en los que los profesionales conscientes se involucran involuntariamente en el plagio de derechos de autor. Por otra parte, el contenido que se ingresa en el sistema está sujeto a posibles sesgos de quienes ingresan los datos.
Así, quienes usan herramientas como ChatGPT deben verificar y corregir el contenido cuidadosamente para garantizar que el material sea congruente con las regulaciones éticas y legales con respecto a la discriminación y las iniciativas de diversidad, equidad e inclusión (DEI).
En sí, a medida que la IA evoluciona y la IA generativa continúa, pueden surgir más preguntas legales. Esto sólo es el principio de un enorme declive en el terreno ético-jurídico.
Ivette Estrada
Periodista y escritora mexicana. Creadora del Método ADM de comunicación estratégica. Considera que las palabras construyen realidades, reputación y recuerdos. Fue Premio Nacional de Periodismo en Crónica. Tiene publicados ocho libros y es experta en Relaciones Públicas, Personal Branding y creación de publicaciones diversas.
Colaboradora desde el 27 de junio de 2022.
Las opiniones expresadas por los columnistas en sus artículos son de exclusiva responsabilidad de sus autores y pueden no representar la postura o línea editorial de PressLibre. Sin embargo, como medio periodístico respetamos su derecho a la libertad de expresión.