Experto en IA crea una copia perfecta de su pasaporte con ChatGPT

Demostró cómo ChatGPT puede crear un pasaporte falso en solo cinco minutos, dejando bien claro los grandes fallos de ciberseguridad de estas herramientas.

Que ChatGPT y otras herramientas con IA están llenas de algún que otro fallo perfectamente explotable si sabes cómo, es un hecho. Sin embargo, este descubrimiento se sale fuera de lo ‘normal’.

Borys Musielak utilizó este chatbot de OpenAI para generar una réplica perfecta de su pasaporte en apenas cinco minutos. Según explicó en su perfil de X —antes Twitter—, este documento falso es tan realista que podría pasar sin problemas los controles automatizados de «Conoce a tu Cliente» (KYC) que utilizan bancos, plataformas y exchanges de criptomonedas.

«Me tomó 5 minutos crear una réplica de mi propio pasaporte que la mayoría de los sistemas KYC automatizados probablemente aceptarían sin pestañear. Las implicaciones son obvias: cualquier proceso de verificación basado en imágenes como prueba ha quedado oficialmente obsoleto. Lo mismo aplica a las selfis. Estéticas o en vídeo, da igual. GenAI también puede falsificarlas», comenta vía X.

A esto hay que añadir problemas aún más preocupantes como robo de identidad masivo, apertura fraudulenta de cuentas bancarias y solicitudes falsas de crédito.

«Ahora puedes generar pasaportes falsos con GPT-4o»

Aquí parece que el gran problema recae en lo realmente sencillo que es engañar a los sistemas KYC. Para que te hagas una ligera idea, estos han sido una herramienta vital para prevenir fraudes y garantizar el cumplimiento normativo en sectores financieros y tecnológicos.

Sin embargo, su dependencia de imágenes estáticas y vídeos como prueba principal los hace vulnerables a documentos falsificados generados por inteligencia artificial. En el caso del pasaporte creado por Musielak, se evitó incluso caer en errores que rápidamente detecta, como el uso incluso de Photoshop.

Sin ir más lejos, plataformas muy críticas como Revolut y Binance ya han recibido bastantes quejas por precisamente depender de estos métodos básicos para verificar identidades.

ChatGPT también puede imitar tu voz y esto es un grave problema

Rizando el rizo, GPT-4o, el modelo más avanzado de OpenAI, permite a la IA generar diferentes voces. Sin embargo, durante las pruebas, se descubrió que en ciertas condiciones, la IA podía imitar la voz del usuario, incluso a partir de fragmentos de audio cortos.

Imagina recibir una llamada de un amigo o incluso un familiar pidiéndote información confidencial o diciéndote que necesitan que hagas una transferencia bancaria. Todo parece real, sobre todo porque reconoces su voz.

Pero ¿y si no son ellos?

«Se estima que en los próximos años este tipo de delitos vaya en aumento, pudiendo llegar a suponer un gran riesgo para los individuos debido a la complejidad de identificación del fraude, que con el tiempo también resulta probable que experimente múltiples mejoras», nos explicaron en una anterior entrevista Raquel Puebla e Itxaso Reboleiro, analistas de ciberinteligencia en Innotec Security Part of Accenture.

Al final, un fragmento de la voz de alguien de una conversación es suficiente para que un delincuente lo utilice para generar conversaciones muy realistas que, en última instancia, son falsas. Si alguien conoce tu parentesco con otra persona y la graba para utilizarlo en tu contra, estás perdido casi con un 100% de probabilidad.

El peligro de las llamadas fraudulentas con IA

Por otro lado, estos estafadores también pueden hacerse pasar por empleados de bancos, compañías telefónicas o servicios de atención al cliente. Llaman a la víctima con cualquier pretexto y, mediante preguntas engañosas, buscan obtener una respuesta afirmativa. Una vez que logran grabar la voz diciendo «sí», pueden usarla para confirmar transacciones o aceptar contratos falsos en nombre de la víctima.

La clave de esta estafa es conseguir que la persona pronuncie «sí». Esta palabra puede ser manipulada digitalmente y añadida a una conversación ficticia en la que se da consentimiento a algo que nunca se autorizó.

Laura Grandi, presidenta de Federconsumatori Toscana, ha señalado en el portal italiano Telefonino, que es importante evitar decir «sí» en llamadas telefónicas con números desconocidos o en conversaciones sospechosas. En su lugar, recomienda responder con frases completas como «¿De qué se trata esta llamada?», o «¿Quién habla?», para no dar un fragmento de audio que pueda ser manipulado.

Con todo esto, queda claro que GPT-4o, o directamente ChatGPT, ya sea una herramienta perfecta para este tipo de actos, preocupa. En cuanto a cómo se podría revolver este gran problema que solo va a ir a más, es posible que existan varias formas de acabar con ello, como una mayor regulación o mejores medidas de seguridad por parte de las compañías que están detrás de estas herramientas.

FUENTE: Fuente: https://computerhoy.com/ciberseguridad

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio