No le cojas el teléfono a la Inteligencia Artificial
|
10/7/2024 06:30
|
Actualizado: 09/7/2024 21:53
|
La Inteligencia Artificial se ha posicionado en los últimos años como una herramienta de gran utilidad. Un elemento que va avanzando a pasos agigantados, siendo ya posible desde escribir un texto, solicitar información histórica, crear una imagen o editar un sonido gracias a la Inteligencia Artificial.
Sin embargo, este importante avance tecnológico también tiene su “cara B”. Y es que la IA ha comenzado a ser utilizada como herramienta para diversos delitos. Entre ellos, multitud de estafas que se producen gracias a la capacidad de esta tecnología para imitar casi a la perfección a cualquier humano.
Algo que se podía comprobar en la última MET Gala. Y es que, en relación al conocido evento norteamericano, se publicaban fotos de la aparente vestimenta de Katy Perry o Rihanna. Ello, sin que las artistas acudieran a la cita cultural.
Pero la Inteligencia Artificial no solo afecta a los famosos. Y es que empresarios y ciudadanos también pueden acabar siendo víctimas de esta nueva herramienta digital. Ello, a través de estrategias como la deepvoice y el vishing.
Engaños a través la Inteligencia Artificial
Así pues, una empresa fue víctima de la Inteligencia Artificial a través de una llamada de teléfono.
Tal y como explica el Instituto Nacional de Ciberseguridad (INCIBE), un empleado de la empresa recibió una llamada telefónica, supuestamente, de uno de los CEO de la empresa.
Llamada en la que el supuesto CEO exige una reunión telemática y, en ella, “les comenta que les van a realizar una auditoría inminente”. Algo para lo que es necesario la compra de una determinada máquina, dando los datos específicos para realizar la transferencia de compra. Encargo que los empleados realizaron.
Sin embargo, apenas unos días después, el verdadero CEO habló con los empleados, dándose a conocer en ese momento que habían sido víctimas de una estafa, siendo el CEO suplantado por la deepvoice generada por Inteligencia Artificial.
Un caso similar le sucedía a otra usuaria de INCIBE, que recibía una llamada de un número desconocido. Al otro lado de la línea, la voz de su marido.
Sin embargo, la calidad del audio hizo saltar todas las alarmas de la mujer, que decidió llamar al número de teléfono habitual de su pareja, que cogía el teléfono sin saber nada de lo que había pasado. Algo que les llevaba a la conclusión de que lo que había escuchado la mujer era una locución creada por IA.
Cómo actuar frente a estos casos
“Es suficiente con unos pocos segundos de grabación para poder generar un audio suplantando esa misma voz”, explica el INCIBE con respecto a estos casos.
Algo ante lo que, de forma “reactiva” a una llamada de este tipo, el Instituto recomienda avisar a otros contactos en común, así como bloquear el número de teléfono “intruso”, informar a Policía Nacional o Guardia Civil sobre el caso, e intentar eliminar información personal publicada sin permiso en plataformas digitales.
De forma preventiva, por su lado, el INCIBE insiste en que los usuarios no deben “nunca facilitar datos personales ni bancarios” a través del teléfono. Y, a su vez, buscar siempre el contraste de la información en esta llamada, acordando una palabra clave con las personas más cercanas que puedan ser víctimas de estas comunicaciones falsas.
En caso de que, como en la empresa, se haya producido el vishing, el INCIBE explica que, en primer lugar, es importante “contactar con la entidad bancaria”, tanto para intentar recuperar el dinero, como para establecer nuevas medidas de seguridad.
A su vez, es importante la comunicación de este suceso a todos los empleados, para evitar nuevas estafas similares, y buscar la mayor recopilación de datos posible sobre la estafa sufrida, poniéndola en conocimiento de Fuerzas y Cuerpos de Seguridad del Estado.
Consejos con los que el INCIBE busca acabar con las “llamadas” de la Inteligencia Artificial, que pueden llegar a esconder delitos de suplantación de identidad y estafa.
Noticias Relacionadas: