Cr. Luis Alberto Dalcol,
La A.I. generativa es un sistema que procura desarrollar una imitación de la inteligencia humana. Da respuestas inmediatas, con irregular certeza, a preguntas o solicitudes. El sistema no sabe la respuesta que se pregunta. Verbigracia , ¿cuál es la fórmula del dulce de leche?, no sabe cómo la sabemos nosotros. Responde la receta precisa porque tiene – en acopio – todos los datos conocidos de la fórmula del dulce de leche. Simplemente, usa un algoritmo, apoyado en la matemática predictiva de altas probabilidades, elige la contestación más frecuente de su stock y la expone – con celeridad – como la afirmación más cercana a lo cierto conocido.
Cuando la información solicitada es más delicada se debe tener en cuenta que las respuestas llevan un riesgo implícito. Los humanos somos sujetos y en consecuencia no somos objetivos en nuestra posición. Las respuestas de la A.I., además de ese error, tienen otros por la forma en cómo está construida la respuesta; por el sesgo, es decir la desviación sistémica y por cuestiones de adherencia o privacidad. Su uso es muy útil porque simplifica, da una primera respuesta de manera rápida, luego requiere – inevitablemente – de la verificación humana. Sin dudas ahorra tiempo. Mucho tiempo. No obstante, siempre el control humano debe estar presente. La respuesta de la A.I. es correcta, solo si está verificado por una persona humana.
Ahora aparece la A.I. agéntica, que con la asistencia de un chat bot (GPT, Géminis u otro) no solo da la receta del dulce sino que lo prepara, hace el dulce de leche. Incorpora el agente automático sin necesidad de la participación humana.
Por otra parte, todo sistema está expuesto al uso malicioso, al engaño. En este caso no solo de la persona misma sino también de la propia A.I. por medio de la enorme cantidad de agentes automáticos que pueden introducir información errónea e interesada en los datos acumulados que utiliza el sistema.
Se ha detectado que si se introducen más de 200 informaciones erróneas, empiezan a aparecer respuestas equivocadas. Inciden en el análisis predictivo o la probabilidad sobre los muchos datos estimados como ciertos que deterioran la respuesta.
La introducción del dato contaminado es fácil, porque se clonan identidades, voces que se captan a través de cualquier dispositivo, luego se incorporan con el interés avieso y premeditado, y por último producen decisiones lógicas sobre elementos adulterados que revierten los resultados.
Existen agentes que pueden resolver encriptaciones complejas y así el sistema genera inseguridad o su autodestrucción, por los propios ataques de la A.I. . Thomas L. Friedman, en publicación de The New York Times, da cuenta que Anthropic lanza un nuevo lenguaje que vulnera los software más utilizados llamado Claude Mythos Preview y que ya lo ha informado a 40 empresas de tecnología. Es decir que actualmente la A.I. hace vulnerable su propia seguridad porque abre los sistemas, así los Estados dependen de las empresas. Si se puede pasar o entrar, se puede hacer cualquier cosa en cualquier sistema.
Esta descripción – casi apocalíptica – es real, posiblemente temporal. Despertará, prontamente, su protección o resguardo del sistema pensado en la integridad de su uso. Seguramente se necesitarán y aparecerán bloqueadores de acción inmediata en tiempo real para detener y darle intervención al análisis humano que purifique antes de su aplicación o intervención errónea.
Esa es la esperanza para lograr transparencia y confianza en el buen uso de A.I. y atemperar la ansiedad vigente.
