martes 23 de abril de 2024

¿Chat GPT representa una amenaza para la ciberseguridad?

La compañía experta en seguridad en red, WatchGuard, advirtió las posibles 5 ciberamenzas que los delincuentes pueden generar con ayuda de la Inteligencia Artificial. Corey Nachreiner, Chief Security Officer de la empresa, analizó esta nueva problemática.
¿Chat GPT representa una amenaza para la ciberseguridad? 1
El malware, unas de las principales cinco ciberamenzas, puede copiar un archivo en un directorio temporal, comprimirlo y enviarlo a la web. Créditos: IStock.

El desarrollo de Inteligencia Artificial (IA) y la explosión de Chat GPT generaron una fuerte revolución. Por esta razón, WatchGuard, firma experta en seguridad en red, remarcó que su utilización negativa trajo severos impactos. La creación de malwares (programas maliciosos) y ataques de phishing (técnicas de engaño para recopilar información de una víctima) son parte de las 5 ciberamenazas modernas.

Corey Nachreiner, Chief Security Officer de la empresa, brindó una entrevista a periodistas especializades y analizó esta problemática. “Ciertamente representa una amenaza”, consignó el avezado al ser consultado por los perjuicios que ocasionará que ciberdelincuentes utilicen estas nuevas tecnologías.

El lanzamiento de OpenAI significó un recurso peligroso en manos de estafadores. A través de este chatbot de IA, crearon malware, bots maliciosos, ataques, robos y suplantación de identidad. En este contexto, uno de les referentes de la firma anunció los principales problemas.

“La tecnología deepfake, que puede crear imágenes, audio y video convincentes de personas reales utilizando imágenes existentes o grabaciones de ellas, facilitará la suplantación de objetivos para su uso en ingeniería social”, certificó.

Les delincuentes comenzaron a utilizar el modelo de lenguaje de IA GPT-3 para elaborar cepas de malware y realizar diversos ataques. En consecuencia, la creación de una cuenta en OpenAI de forma gratuita desde el sitio web favorece la perpetración de ciberataques.

Las principales 5 ciberamenazas

El desarrollo de malware es una de las principales amenazas del Chat GPT al servicio de estafadores. La utilización de esta herramienta con bajos conocimientos de programación facilita las amenazas. Así, implementan efectivas acciones de hackeo o cierre de lagunas informáticas.

“Hemos visto a miembros de un foro clandestino popular usar Chat GPT para escribir información que roba malware”, resaltó Nachreiner. A su vez, reconoció que “en el futuro esperamos ver a los actores de amenazas aprovechar el aprendizaje automático adversario para combatir algoritmos de aprendizaje automático utilizados en servicios y controles de seguridad”.

La creación de este tipo de ataque por medio de un código basado en Python puede buscar, copiar y filtrar 12 tipos de archivos comunes. Desde documentos de Office, PDF hasta imágenes de un sistema infectado. Y se recurre a Chat GPT para crear chatbots, engañar usuaries y realizar estafas.

¿Chat GPT representa una amenaza para la ciberseguridad? 2
Corey Nachreiner advirtió que “Chat GPT y otros modelos de IA similares tienen excelentes capacidades de procesamiento de lenguaje natural que lo convierten en un escritor hábil y capaz”.
Créditos: Bank Info Security.

El spam o lanzar ataques de phishing es un claro ejemplo. Por este motivo, el especialista subrayó que “los actores de amenazas seguramente aprovecharán los proyectos de IA de código abierto”. Y agregó que “los bromistas encontraron formas de hacer que Chat GPT supere algunas de esas restricciones”.

“El FBI afirmó que los niveles C falsos de audio falso ya se han utilizado en el phishing de fraude financiero a través de plataformas de reuniones virtuales” puntualizó Nachreiner. Además, destacó la facilidad del sistema para crear correos electrónicos sumamente convincentes para concretar este engaño.

El impacto de estos ataques

La funcionalidad del uso dado a herramientas derivadas de IA puede ser positiva o negativa según como sean empleadas. El Chat GPT en manos de ciberdelicuentes trae aparejados ataques a la seguridad y la privacidad de las personas.

El Chief Security Officer de WatchGuard expresó que “los investigadores ya han demostrado que estas IA pueden escribir correos electrónicos de phishing tan convincentes, si no más, que los humanos”. Por ello, explicó que “pueden automatizar y escalar masivamente ataques de spear phishing más sofisticados”.

Además, genera severas consecuencias en los puestos de trabajo porque puede implicar la reducción de ofertas laborales. “La IA puede volverse lo suficientemente buena como para ver reducciones de personal en todas partes, incluida la seguridad”, argumentó.

No obstante, reconoció que esta tecnología aún requiere de la supervisión humana para su correcto funcionamiento, pero su perfeccionamiento crece a pasos agigantados. “A medida que la IA mejora puede no ser el caso por mucho tiempo”, aseveró.

La privacidad frente a Chat GPT

La seguridad y la privacidad son aspectos afectados porque los datos de personas y organizaciones que circulen en Internet podrán estar incluidos en Chat GPT. En ciertas oportunidades, sucede que hay información en redes sociales o Wikipedia que puede utilizarse con fines maliciosos.

“OpenAI no nos preguntó si podrían usar todos estos datos, simplemente asumieron que podría porque es de acceso público”, ratificó Nachreiner. Asimismo, añadió que “si tiene cosas personales, las respuestas y capacidades de Chat GPT pueden tenerlas en cuenta de alguna manera”.

Aún no diferencia entre desinformación, falsedades y mentiras. Esto es un gran problema porque resulta funcional a la difusión de fake news. “Las personas no dedican el tiempo necesario para seleccionar los datos que Chat GPT obtiene para tomar decisiones”, destacó.

¿Chat GPT representa una amenaza para la ciberseguridad? 3
Las compañías pueden protegerse ante eventuales amenazas a través del uso de la IA porque pueden utilizarlo para identificar correos electrónicos de phishing.
Créditos: Pixabay.

Ahora bien, él aseguró: “no creo que OpenAI pretenda matar nuestra privacidad y hacernos inseguros, pero hay muchas consecuencias potenciales que la sociedad todavía tiene que resolver por la seguridad de todos nosotros”.

Los protocolos de protección

La IA también puede instalarse como un recurso para fortalecer protocolos de seguridad y protección. Las compañías recurren a nuevos modelos de aprendizaje automático y profundo basados en Inteligencia Artificial. A través de estos recursos desarrollan barreras de protección.

De esta forma, implementa un sistema de defensa contra amenazas avanzadas, malware, ransomware (virus que impide la utilización de los equipos o sistemas que infecta) y phishing. Del mismo modo, puede sobreponerse a rootkits (software malicioso que hace que les hackers puedan controlar los equipos afectados), vulnerabilidad de memoria y detectar actividades maliciosas. Por lo tanto, Nachreiner destacó el uso positivo de estas nuevas tecnologías.

“Algunos beneficios incluyen la detección inmediata y proactiva de malware, análisis de comportamiento y detección de anomalías”, enfatizó. Además, concluyó que “facilita la correlación, análisis de registros, valuación y validación”.

Compartir:

Nota al Pie es un joven medio alternativo y autogestivo. Precisamos tu aporte para sostener el día a día de un periodismo popular que encuentra cada día más dificultades para mantenerse independiente. Con tu suscripción mensual nos ayudás muchísimo. Podés cancelarla cuando quieras. Por mail te iremos informando de los beneficios de ser parte de Nota al Pie.
¡Muchas Gracias!

Notas Relacionadas

Seguir Leyendo

Rebelión en la Selva: el Congreso evaluará el pedido de juicio político a Javier Milei

A través de un documento formal, un grupo de juristas y activistas presentaron la solicitud ante el titular de la Cámara de Diputados, Martín Menem. Nota al Pie te cuenta quiénes firmaron el expediente y el detalle de las causales por las que busca imputar al presidente de la Nación.

En un día histórico, la Marcha Federal Universitaria defiende la educación pública de calidad

El martes 23 de abril, millones de estudiantes, docentes, trabajadores del sector educativo y defensores del acceso a la educación pública se congregaron en diversos puntos del país para respaldar el reclamo presupuestario de las instituciones, que se vieron afectadas por el brutal ajuste del gobierno de Javier Milei.

La estafa de la feminidad, un libro para hackear mandatos

Nota al Pie dialogó con Lala Pasquinelli, autora del libro y fundadora de Mujeres que no fueron tapa, quien reflexionó sobre qué implica ser mujer y las diversas formas de violencia a las que se ven obligadas a someterse para cumplir con los mandatos sociales.

Ultimas Noticias

Más del autor

Nota al Pie | Noticias en contexto