La tecnología del momento: alerta por estafas con inteligencia artificial

Circula un engaño casi imposible de detectar que atenta contra todos los homebanking y nadie puede frenar. ¿Cómo protegerme?
viernes 07 de abril de 2023
cajerojpg
cajerojpg

Como toda herramienta novedosa y disruptiva, esta puede usarse para el bien como también para el mal. Y en esto último los ciberdelincuentes son grandes expertos.

Ahora, la compañía especializada en ciberseguridad ESET, alertó acerca de una tecnología que permite crear rostros ficticios y así engañar a millones de personas. A modo de comprobar cuan efectiva es esta amenaza, la firma presentó un desafío: "¿cuál de los siguientes rostros pertenece a una persona real?", escribió en su sitio web.

642dce3b457b0_700_305!

Si tu respuesta es la imagen de la derecha, bien podrías ser una víctima más de este nuevo engaño. A continuación, todos los detalles. 

Estafa con inteligencia artificial: qué son los rostros GAN

Para comprender las estafas que ganan popularidad en la actualidad, primero es necesario indagar acerca de la tecnología GAN (Generative Adversarial Network). Se trata de un tipo de inteligencia artificial, basado en el Deep Learning, que puede generar rostros realistas y otro tipo de imágenes, hasta audio o videos.

Su modus operandi consiste en ingresar datos de entrada, como pueden ser fotos de personas reales, y el modelo ofrece como resultado nuevos rostros con características de apariencia real. 

A pesar de que estas funciones resultan óptimas para industrias como la de videojuegos o efectos visuales, su uso malintencionado trae aparejado grandes riesgos para los internautas.

 "De hecho, estudios publicados ya daban cuenta a fines de 2021 que las imágenes creadas mediante Inteligencia Artificial son cada vez más convincentes y que existe un 50% de posibilidades de confundir un rostro falso con uno real", reveló ESET. 

El gran problema con esto es que los estafadores ahora tienen instrumentos de alta sofisticación para desplegar engaños cada vez más persuasivos. En este sentido, la compañía de ciberseguridad escribió "Pueden crear rostros de personas ficticias que luego son utilizados para armar perfiles de supuestos representantes de servicio al cliente de una empresa. Estos perfiles luego envían correos electrónicos de phishing a los clientes de esa empresa para engañarlos y hacer que revelen información personal". 

Frente a esta situación, ESET brinda los siguientes consejos:

  • Verificar la fuente: Asegurarse de que la fuente de la imagen es confiable y verificar la veracidad de dicha imagen.
  • "No todo lo que brilla es oro": desconfiar de las imágenes que parecen demasiado perfectas. Mayormente las imágenes generadas por este tipo de tecnología tienen un aspecto perfecto y sin defectos, por lo que es importante desconfiar de ellas. Si una imagen o video parece sospechoso, buscar más información al respecto en otras fuentes confiables.
  • Verifica las imágenes y/o videos: Existen algunas herramientas como Google Reverse Image Search en línea que pueden ayudar a verificar la autenticidad de imágenes y videos.
  • Actualiza tus sistemas de seguridad: mantén tus sistemas de seguridad al día para protegerte contra las estafas y el malware.
  • Instala un software antivirus de buena reputación: no solo te ayudará a detectar código malicioso, sino a detectar sitios falsos o sospechosos.
  • No compartas información confidencial: no compartas información personal o financiera con nadie que no conozcas.

"Un riesgo para la humanidad”: más de mil expertos piden poner en pausa los avances en inteligencia artificial

El fundador de Tesla, Elon Musk

Elon Musk y más de mil expertos mundiales firmaron el miércoles un llamado a hacer una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) más potentes que ChatGPT 4, el modelo de OpenAI lanzado este mes, al advertir de "grandes riesgos para la humanidad".

La carta, emitida por el Future of Life Institute sin fines de lucro y firmada por más de 1.000 personas, incluido Musk, pidiendo una pausa en el desarrollo avanzado de la inteligencia artificial hasta que expertos independientes desarrollaran, implementaran y auditaran, protocolos de seguridad compartidos para tales diseños. “Los poderosos sistemas de inteligencia artificial deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, decía la carta.

La carta detalla los potenciales riesgos para la sociedad y la civilización de la circulación de los sistemas de IA competitivos entra humanos en forma de interrupciones económicas y políticas, y pide a los desarrolladores que trabajaran con los legisladores en materia de gobernanza y autoridades reguladoras. Y los cosignatarios de la misma incluyeron a el CEO de Stability AI, Emad Mostaque, investigadores de DeepMind, propiedad de Alphabet, y los pesos pesados de AI Yoshua Bengio, a menudo denominado como uno de los “padrinos de AI”, y Stuart Eussel, un pionero de la investigación de campo.