{"id":2161,"date":"2024-09-06T23:44:29","date_gmt":"2024-09-07T04:44:29","guid":{"rendered":"https:\/\/zidrave.net\/?p=2161"},"modified":"2024-09-06T23:45:39","modified_gmt":"2024-09-07T04:45:39","slug":"el-mundo-clandestino-de-los-chatbots-de-inteligencia-artificial-del-mercado-negro-esta-prosperando","status":"publish","type":"post","link":"https:\/\/zidrave.net\/index.php\/2024\/09\/06\/el-mundo-clandestino-de-los-chatbots-de-inteligencia-artificial-del-mercado-negro-esta-prosperando\/","title":{"rendered":"El mundo clandestino de los chatbots de inteligencia artificial del mercado negro est\u00e1 prosperando,"},"content":{"rendered":"\n<p>Los llamados LLM maliciosos pueden generar a sus creadores decenas de miles de d\u00f3lares al mes. Los 200 millones de usuarios activos semanales de ChatGPT han ayudado a impulsar a OpenAI, la empresa detr\u00e1s del chatbot, a una valoraci\u00f3n de 100 mil millones de d\u00f3lares . Pero fuera del \u00e1mbito general, todav\u00eda se puede ganar mucho dinero, especialmente si se atiende al submundo.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"990\" height=\"557\" src=\"https:\/\/zidrave.net\/wp-content\/uploads\/2024\/08\/image-229.png\" alt=\"\" class=\"wp-image-1930\" srcset=\"https:\/\/zidrave.net\/wp-content\/uploads\/2024\/08\/image-229.png 990w, https:\/\/zidrave.net\/wp-content\/uploads\/2024\/08\/image-229-300x169.png 300w, https:\/\/zidrave.net\/wp-content\/uploads\/2024\/08\/image-229-768x432.png 768w\" sizes=\"auto, (max-width: 990px) 100vw, 990px\" \/><\/figure>\n\n\n\n<p>Los modelos de lenguaje grandes (LLM) il\u00edcitos pueden generar hasta 28.000 d\u00f3lares en dos meses por ventas en mercados clandestinos, seg\u00fan un estudio publicado el mes pasado en arXiv, un servidor de preimpresiones propiedad de la Universidad de Cornell.<\/p>\n\n\n\n<p>Eso es solo la punta del iceberg, seg\u00fan el estudio, que analiz\u00f3 m\u00e1s de 200 ejemplos de LLM maliciosos (o malas) listados en mercados clandestinos entre abril y octubre de 2023. Los LLM se dividen en dos categor\u00edas: aquellos que son LLM completamente sin censura, a menudo basados \u200b\u200ben est\u00e1ndares de c\u00f3digo abierto, y aquellos que liberan a los LLM comerciales de sus barandillas mediante indicaciones.<\/p>\n\n\n\n<p>\u201cCreemos que ahora es un buen momento para empezar a estudiarlos, porque no queremos esperar hasta que el da\u00f1o mayor ya se haya producido\u201d, afirma Xiaofeng Wang, profesor de la Universidad de Indiana en Bloomington y uno de los coautores del art\u00edculo. \u201cQueremos adelantarnos a la curva y antes de que los atacantes puedan causarnos un da\u00f1o enorme\u201d.<\/p>\n\n\n\n<p>Si bien los piratas inform\u00e1ticos pueden, en ocasiones, eludir las limitaciones incorporadas a los LLM convencionales, que tienen como objetivo evitar actividades ilegales o cuestionables, estos casos son escasos y espor\u00e1dicos. En cambio, para satisfacer la demanda, han surgido LLM il\u00edcitos. Y, como era de esperar, quienes est\u00e1n detr\u00e1s de ellos est\u00e1n ansiosos por ganar dinero a costa de ese inter\u00e9s.<\/p>\n\n\n\n<p>\u201cDescubrimos que la mayor\u00eda de los servicios de mala en foros clandestinos existen principalmente para obtener ganancias\u201d, dice Zilong Lin, investigador de la Universidad de Indiana en Bloomington y otro de los coautores del art\u00edculo.<\/p>\n\n\n\n<p>Los LLM maliciosos pueden utilizarse de distintas maneras, desde escribir correos electr\u00f3nicos de phishing (un estudio independiente estima que los LLM pueden reducir el coste de producci\u00f3n de dichos mensajes en un 96%) hasta desarrollar malware para atacar sitios web.<\/p>\n\n\n\n<p>Las capacidades de estos LLM del mercado negro para llevar a cabo sus tareas pueden variar enormemente, aunque algunos son herramientas particularmente poderosas. Lin y Wang descubrieron que dos LLM sin censura, DarkGPT (que cuesta 78 centavos por cada 50 mensajes) y Escape GPT (un servicio de suscripci\u00f3n que cobra 64,98 d\u00f3lares al mes), pudieron producir c\u00f3digo correcto alrededor de dos tercios de las veces, y el c\u00f3digo que produjeron no fue detectado por las herramientas antivirus, lo que les dio una mayor probabilidad de atacar con \u00e9xito una computadora.<\/p>\n\n\n\n<p>Otro LLM malicioso, WolfGPT, cuyo acceso cuesta una tarifa fija de 150 d\u00f3lares, fue visto como una potencia a la hora de crear correos electr\u00f3nicos de phishing, logrando evadir con \u00e9xito la mayor\u00eda de los detectores de spam.<\/p>\n\n\n\n<p>Seg\u00fan Wang, la existencia de herramientas de inteligencia artificial tan maliciosas no deber\u00eda sorprendernos. \u201cEs casi inevitable que los cibercriminales utilicen la inteligencia artificial\u201d, afirma Wang. \u201cToda tecnolog\u00eda siempre tiene dos caras\u201d.<\/p>\n\n\n\n<p>Andrew Hundt, investigador de innovaci\u00f3n inform\u00e1tica de la Universidad Carnegie Mellon que no particip\u00f3 en el estudio, afirma que los autores \u201cdemuestran que los usuarios maliciosos est\u00e1n teniendo \u00e9xito en la reventa de ofertas corporativas con fines maliciosos\u201d.&nbsp;<\/p>\n\n\n\n<p>Hundt cree que los responsables de las pol\u00edticas deber\u00edan exigir a las empresas de inteligencia artificial que desarrollen e implementen pol\u00edticas de \u201cconozca a su cliente\u201d para verificar la identidad de un usuario. \u201cTambi\u00e9n necesitamos marcos legales para garantizar que las empresas que crean estos modelos y brindan servicios lo hagan de manera m\u00e1s responsable, de manera que mitiguen los riesgos que plantean los actores maliciosos\u201d, afirma.<\/p>\n\n\n\n<p>Wang, por su parte, se\u00f1ala que investigaciones como la de su equipo son solo el comienzo en lo que respecta a la lucha contra los cibercriminales. \u201cPodemos desarrollar tecnolog\u00edas y brindarles informaci\u00f3n para ayudarlos\u201d, dice, \u201cpero no podemos hacer nada para detener estas cosas por completo porque no tenemos los recursos\u201d.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Los llamados LLM maliciosos pueden generar a sus creadores decenas<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"ngg_post_thumbnail":0,"footnotes":""},"categories":[2411,3423],"tags":[4920,4926,4927,4919,4921,4924,4918,4925,4922,4923],"class_list":["post-2161","post","type-post","status-publish","format-standard","hentry","category-inteligencia-artificial","category-sociedad","tag-chatbots-ilegales","tag-estudio-arxiv-llm","tag-foros-clandestinos-ai","tag-ganancias-mercado-negro-ia","tag-hackers-y-llm","tag-ia-sin-censura","tag-llm-maliciosos","tag-malware-ia","tag-mercado-clandestino-ia","tag-phishing-con-llm"],"_links":{"self":[{"href":"https:\/\/zidrave.net\/index.php\/wp-json\/wp\/v2\/posts\/2161","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/zidrave.net\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/zidrave.net\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/zidrave.net\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/zidrave.net\/index.php\/wp-json\/wp\/v2\/comments?post=2161"}],"version-history":[{"count":2,"href":"https:\/\/zidrave.net\/index.php\/wp-json\/wp\/v2\/posts\/2161\/revisions"}],"predecessor-version":[{"id":2163,"href":"https:\/\/zidrave.net\/index.php\/wp-json\/wp\/v2\/posts\/2161\/revisions\/2163"}],"wp:attachment":[{"href":"https:\/\/zidrave.net\/index.php\/wp-json\/wp\/v2\/media?parent=2161"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/zidrave.net\/index.php\/wp-json\/wp\/v2\/categories?post=2161"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/zidrave.net\/index.php\/wp-json\/wp\/v2\/tags?post=2161"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}