21 de noviembre de 2024

Los llamados LLM maliciosos pueden generar a sus creadores decenas de miles de dólares al mes. Los 200 millones de usuarios activos semanales de ChatGPT han ayudado a impulsar a OpenAI, la empresa detrás del chatbot, a una valoración de 100 mil millones de dólares . Pero fuera del ámbito general, todavía se puede ganar mucho dinero, especialmente si se atiende al submundo.

Los modelos de lenguaje grandes (LLM) ilícitos pueden generar hasta 28.000 dólares en dos meses por ventas en mercados clandestinos, según un estudio publicado el mes pasado en arXiv, un servidor de preimpresiones propiedad de la Universidad de Cornell.

Eso es solo la punta del iceberg, según el estudio, que analizó más de 200 ejemplos de LLM maliciosos (o malas) listados en mercados clandestinos entre abril y octubre de 2023. Los LLM se dividen en dos categorías: aquellos que son LLM completamente sin censura, a menudo basados ​​en estándares de código abierto, y aquellos que liberan a los LLM comerciales de sus barandillas mediante indicaciones.

“Creemos que ahora es un buen momento para empezar a estudiarlos, porque no queremos esperar hasta que el daño mayor ya se haya producido”, afirma Xiaofeng Wang, profesor de la Universidad de Indiana en Bloomington y uno de los coautores del artículo. “Queremos adelantarnos a la curva y antes de que los atacantes puedan causarnos un daño enorme”.

Si bien los piratas informáticos pueden, en ocasiones, eludir las limitaciones incorporadas a los LLM convencionales, que tienen como objetivo evitar actividades ilegales o cuestionables, estos casos son escasos y esporádicos. En cambio, para satisfacer la demanda, han surgido LLM ilícitos. Y, como era de esperar, quienes están detrás de ellos están ansiosos por ganar dinero a costa de ese interés.

“Descubrimos que la mayoría de los servicios de mala en foros clandestinos existen principalmente para obtener ganancias”, dice Zilong Lin, investigador de la Universidad de Indiana en Bloomington y otro de los coautores del artículo.

Los LLM maliciosos pueden utilizarse de distintas maneras, desde escribir correos electrónicos de phishing (un estudio independiente estima que los LLM pueden reducir el coste de producción de dichos mensajes en un 96%) hasta desarrollar malware para atacar sitios web.

Las capacidades de estos LLM del mercado negro para llevar a cabo sus tareas pueden variar enormemente, aunque algunos son herramientas particularmente poderosas. Lin y Wang descubrieron que dos LLM sin censura, DarkGPT (que cuesta 78 centavos por cada 50 mensajes) y Escape GPT (un servicio de suscripción que cobra 64,98 dólares al mes), pudieron producir código correcto alrededor de dos tercios de las veces, y el código que produjeron no fue detectado por las herramientas antivirus, lo que les dio una mayor probabilidad de atacar con éxito una computadora.

Otro LLM malicioso, WolfGPT, cuyo acceso cuesta una tarifa fija de 150 dólares, fue visto como una potencia a la hora de crear correos electrónicos de phishing, logrando evadir con éxito la mayoría de los detectores de spam.

Según Wang, la existencia de herramientas de inteligencia artificial tan maliciosas no debería sorprendernos. “Es casi inevitable que los cibercriminales utilicen la inteligencia artificial”, afirma Wang. “Toda tecnología siempre tiene dos caras”.

Andrew Hundt, investigador de innovación informática de la Universidad Carnegie Mellon que no participó en el estudio, afirma que los autores “demuestran que los usuarios maliciosos están teniendo éxito en la reventa de ofertas corporativas con fines maliciosos”. 

Hundt cree que los responsables de las políticas deberían exigir a las empresas de inteligencia artificial que desarrollen e implementen políticas de “conozca a su cliente” para verificar la identidad de un usuario. “También necesitamos marcos legales para garantizar que las empresas que crean estos modelos y brindan servicios lo hagan de manera más responsable, de manera que mitiguen los riesgos que plantean los actores maliciosos”, afirma.

Wang, por su parte, señala que investigaciones como la de su equipo son solo el comienzo en lo que respecta a la lucha contra los cibercriminales. “Podemos desarrollar tecnologías y brindarles información para ayudarlos”, dice, “pero no podemos hacer nada para detener estas cosas por completo porque no tenemos los recursos”.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *