YouTuber MrBeast ha compartido su clip deepfake de Inteligencia Artificial (IA) para informar a sus seguidores sobre los scams. Mientras tanto, uno de los funcionarios más altos de la Unión Europea (UE) está preocupado por las estrictas regulaciones sobre IA.
Con el apogeo de las herramientas de IA Generativa, los reguladores y los usuarios se dieron cuenta de la amenaza que puede representar la tecnología.
Los estafadores aprovechan la popularidad de influencers para hacer scams deepfake de IA
Sin embargo, la primordial preocupación es escribir regulaciones equilibradas que se centren en la protección de los usuarios mas no en detener la innovación.
James Stephen Donaldson, el autor de uno de los canales de YouTube más grandes del planeta, MrBeast, compartió su vídeo deepfake en X (Twitter) para advertir a sus seguidores sobre las estafas de IA. Él escribió:
“Mucha gente está recibiendo este anuncio fraudulento mío de deepfake… ¿están las plataformas de redes sociales preparadas para manejar el aumento de los deepfakes de IA? Este es un problema grave.”
El vídeo engaña a los espectadores haciéndoles pensar que MrBeast está obsequiando el último iPhone quince Pro por dos dólares. Pide a los espectadores que hagan click en un link, seguramente redireccionándolos a algún sitio de phishing.
Leer más: seis potentes herramientas de Inteligencia Artificial para marketing Web3
Además de MrBeast, los estafadores crean vídeos deepfake de IA usando otras personalidades conocidas como Elon Musk. En septiembre, BeInCrypto notificó que los malos actores están efectuando scams cripto mediante los vídeos deepfake de Musk en TikTok.
Funcionario europeos advierte contra la regulación de la IA y scams
Los vídeos deepfake han estado circulando a lo largo de un buen tiempo. De ahí que ciertos soliciten regulaciones estrictas sobre la IA.
Pero, por otra parte, si hay regulaciones más estrictas, se podría frenar la innovación. Por lo tanto, los reguladores deben conseguir un equilibrio y no llegar al extremo de ninguna de las partes.
Věra Jourová, vicepresidenta de valores y trasparencia de la Comisión Europea, piensa que debería haber un análisis sólido de los posibles factores de peligro en vez de paranoia al regular la IA. Ella le afirmó al Financial Times:
“No deberíamos marcar como alto riesgo cosas que no parecen serlo en este momento. Debería haber un proceso dinámico en el que, cuando veamos que las tecnologías se utilizan de manera riesgosa, podamos agregarlas a la lista de alto riesgo.”
Leer más: Conoce los mejores prompts para invertir, trabajar y aprender con ChatGPT (dos mil veintitres)
La UE ha estado trabajando en la redacción de un proyecto de ley sobre IA a lo largo de los últimos un par de años. En particular, el proyecto de ley demandaría la divulgación obligatoria del material protegido por derechos de autor usado para adiestrar los modelos de IA.
Se espera que los funcionarios de la UE concluyan sus discusiones sobre el proyecto de ley de IA a fines de dos mil veintitres. Pero OpenAI, la compañía matriz de ChatGPT, piensa que el boceto del proyecto de ley de IA de la UE está regulando exageradamente la tecnología.
En mayo, el CEO de OpenAI, Sam Altman, conminó con desamparar Europa si el proyecto de ley se aprobaba sin cambios.
Mientras tanto, el Reino Unido asimismo se centra en las regulaciones de la IA. En noviembre, el país acogerá una cima mundial sobre el tema.
Monterrey (México), 1990. Estudió una licenciatura en comunicación y comenzó trabajando en medios locales de su ciudad, como periódicos, revistas, estaciones de radio o canales de televisión. Tiene un gran interés por la cultura mexicana, incluyendo la música, la comida y la historia. Es un apasionado de los deportes, especialmente del fútbol.