martes, abril 30, 2024
Tecnologia

Las estafas de ChatGPT se están extendiendo desenfrenadamente

El malware y las estafas para ChatGPT continúan siendo más frecuentes a medida que se expande el interés en el chatbot desarrollado por OpenAI.

Ha habido una serie de casos de malos actores que se aprovechan de la popularidad de ChatGPT desde su introducción en noviembre de 2022. Muchos han estado utilizando interfaces falsas de ChatGPT para estafar a usuarios móviles desprevenidos sin dinero o infectar dispositivos con malware. La amenaza más reciente es una mezcla de ambos, con hackers que apuntan a usuarios de Windows y Android a través de páginas de phishing y con el objetivo de robar sus datos privados, que podrían incluir tarjetas de crédito y otra información bancaria, según Bleeping Computer.

El investigador de seguridad Dominic Alvieri observó por primera vez la actividad sospechosa de chat-gpt-pc.online, un dominio que albergaba un malware de robo de información llamado Redline, que se hacía pasar por una descarga de escritorio de ChatGPT para Windows. El sitio web, que presentaba la marca ChatGPT, se anunciaba en una página de Facebook como un enlace legítimo de OpenAI para persuadir a las personas a acceder al nefasto sitio.

Alvieri descubrió que también había aplicaciones falsas de ChatGPT en Google Play y varias otras tiendas de aplicaciones de Android de terceros, que podrían enviar malware a los dispositivos si se descargan.

Otros investigadores han respaldado las afirmaciones iniciales, habiendo encontrado otro malware que ejecuta diferentes campañas maliciosas. Los investigadores de Cyble descubrieron chatgpt-go.online, que envía malware que «roba contenido del portapapeles», incluido el ladrón Aurora. Otro dominio llamado chat-gpt-pc[.] en línea envía un malware llamado ladrón Lumma. Otro más llamado openai-pc-pro[.] en línea, malware que aún no ha sido identificado.

Cyble también ha conectado el dominio pay.chatgptftw.com a una página de robo de tarjetas de crédito que se hace pasar por una página de pago para ChatGPT Plus.

Mientras tanto, Cyble dijo que ha descubierto más de 50 aplicaciones móviles dudosas que se hacen pasar por ChatGPT mediante el uso de su marca o un nombre que podría confundir fácilmente a los usuarios. El equipo de investigación dijo que todos han sido determinados falsos y dañinos para los dispositivos. Una es una aplicación llamada chatGPT1, que es una aplicación de fraude de facturación por SMS que probablemente roba información de tarjetas de crédito similar a lo que se describe anteriormente. Otra aplicación es AI Photo, que aloja el malware Spynote que puede acceder y «robar registros de llamadas, listas de contactos, SMS y archivos» de un dispositivo.

La afluencia de malware y estafadores pagados comenzó cuando OpenAI comenzó a limitar las velocidades y el acceso a ChatGPT debido a su creciente popularidad. Las primeras aplicaciones móviles de pago falsas llegaron a las tiendas Apple App y Google Play en diciembre de 202, pero no recibieron atención de los medios hasta casi un mes después, a mediados de enero. El primer hack importante conocido de ChatGPT pronto siguió a mediados de febrero. Los malos actores utilizaron la API OpenAI GPT-3 para crear una versión oscura de ChatGPT que es capaz de generar correos electrónicos de phishing y scripts de malware. Los bots funcionan a través de la aplicación de mensajería Telegram.

Ahora, parece ser temporada abierta para falsificaciones y alternativas desde que OpenAI introdujo su nivel pagado ChatGPT Plus por $ 20 por mes a partir del 10 de febrero. Sin embargo, los usuarios deben tener cuidado de que el chatbot siga siendo una herramienta basada en navegador a la que solo se puede acceder en chat.openai.com. Actualmente no hay aplicaciones móviles o de escritorio disponibles para ChatGPT en ningún sistema.

Recomendaciones del editor