Se avecinan los peligros de una inteligencia artificial (IA) cada vez más poderosa y con un acceso cada vez más universal. Sistemas tan cotidianos como Word y Excel ya han integrado su uso. De igual forma, aplicaciones populares como WhatsApp e Instagram poseen características basadas en IA, y aparatos comunes en muchos países, como Alexa o las “robotinas” (aspiradoras robot), funcionan con el apoyo de esta tecnología.
Desde hace algunos años, hemos sostenido conversaciones con amigos y colegas, con quienes hemos tratado los grandes retos que tiene el derecho objetivo por los riesgos que hoy se están presentando, por el crecimiento vertiginoso de las funciones y habilidades en la producción de contenido de la IA, impulsadas por el “Deep Learning” y los algoritmos complejos, y sobre todo debido al riesgo que existiría por su acceso no regulado.
Y es que, aunque el mundo avanza a pasos agigantados, la IA lo hace aún más rápido, superando enormemente la capacidad de adaptarse de nuestros sistemas jurídicos a esta realidad para identificar, oportunamente, los cambios normativos que deben efectuarse.
Partiendo de nuestro análisis, nos permitimos afirmar que, en menos de 5 años, la IA generativa romperá esquemas inimaginables en lo que se refiere a la creación de contenido, el desarrollo de sistemas, programas informáticos, y a los proyectos científicos, pero también a la aparición de nuevos métodos para cometer actos ilícitos. Evidentemente, esto impactará, de varias formas, no solo a la publicidad, el mercadeo y las artes visuales, sino también a los campos de la ingeniería, las ciencias, la justicia, el Derecho, entre otras.
Recientemente, en el evento Google I/O 2025 hemos sido testigos del lanzamiento realizado por Google Inc., del generador de video de última generación denominado VEO 3, el cual cuenta con funcionalidades que hace tan solo 10 años estaban lejos de nuestra imaginación. La forma tan sencilla de producir contenido con alto nivel de detalle y calidad en la resolución, partiendo solamente de sencillas indicaciones (una disciplina que ya se conoce como Prompt Engineering), sorprende hoy en día hasta a los más ávidos profesionales dentro de las artes y la tecnología.
Ahora bien, con la disponibilidad en el mercado de esta nueva plataforma y su fácil acceso, nos llega la preocupación de comenzar a escuchar de casos, donde a través de su uso fraudulento, personas y comercios sean estafados mediante la suplantación de identidad o el uso no autorizado de datos biométricos de terceros.
Por ejemplo, en pocos años, desaprensivos podrán utilizar fotografías publicadas en redes sociales para generar en tiempo real, imágenes o videos falsos de “alta credibilidad visual” y dañar reputacionalmente a sus víctimas. Además, con notas de voz “públicas” podrán generar, de forma inmediata, audios para tener acceso a datos sensibles o bienes de sus víctimas, tales como cuentas bancarias, informaciones de salud, direcciones u otros.
Otro tipo de fraude con el potencial de generar un riesgo sistémico en el sector financiero será el fraude algorítmico y la manipulación del mercado. Asimismo, podría generalizarse el fraude de identidad para la generación masiva de nuevos crédito con identidades falsas, cuando las entidades realicen las tan populares campañas de crédito, que hoy son tan cotidianas y se utilizan estratégicamente para el incremento de su cartera bruta o para la reducción de sus índices de morosidad, en el corto plazo. Este tipo de fraude se basa en la creación de “identidades sintéticas” generando perfiles artificiales que combinan información real con datos ficticios.
Por lo tanto, en un futuro cercano, las leyes sobre propiedad intelectual, derecho de autor, tratamiento y cesión de datos personales, crímenes y delitos de alta tecnología, comercio electrónico y firmas digitales, código penal y sus respectivos decretos complementarios (entre otras), deberían ser revisadas y actualizadas de forma unificada y sobre todo armoniosa; recomendando que se encuentren alineadas con los principios éticos propuestos por organismos como la OCDE o la Unesco, o que se tomen de referencia las normas recientes sobre IA de la Unión Europea o el estado norteamericano de California, reconocido por sus aportes al avance de la tecnología.
Es decir, entendemos vital que se legisle adecuadamente sobre su empleo y se transparenten las implicaciones legales de su uso incorrecto y fuera de la norma. Por lo que, nuestro Congreso, la clase jurídica y la ciudadanía en general deberán manifestarse al respecto; debiendo sincronizadamente, determinar cuáles cambios normativos y regulatorios serán precisos para establecer reglas claras sobre el uso de dicha tecnología y el establecimiento de las efectos jurídicos que tendría su utilización ilegal.
Al mismo tiempo, las entidades gubernamentales que cuentan con la responsabilidad de ser órganos reguladores de importantes sectores económicos, como es el caso de la Administración Monetaria y Financiera y del Instituto de Desarrollo y Crédito Cooperativo (Idecoop), están llamadas a identificar cuales deberían ser los nuevos protocolos de seguridad tecnológica, de ciberseguridad y para la protección de datos personales (“Cybersecurity Frameworks”) que requerirán a las entidades de intermediación financiera, a las sociedades de información crediticias y a las Cooperativas, para salvaguardar sus activos, los intereses de los usuarios y garantizar el cumplimiento normativo.
Disposiciones como los Reglamentos de Seguridad Cibernética y de la Información, Riesgo Operacional y de Protección al Usuario de los Productos y Servicios Financieros, entre otras, deberán ser sometidas a una revisión técnica exhaustiva e integral, que promueva su fortalecimiento y actualización inmediata, acorde a esta nueva realidad tecnológica, tomando en cuenta estos nuevos retos que, como sociedad, ya nos está presentando el poderoso avance de la IA.
Por: Otto García Elsevyf












