Rafa Nadal warnt davor, dass KI eingesetzt wird, um sich als er auszugeben: „Seien Sie bitte vorsichtig.“

Künstliche Intelligenz kann der Gesellschaft einen großen Nutzen bringen, birgt aber auch enormes Potenzial, wenn sie für böse Zwecke eingesetzt wird. Rafa Nadal hat die Öffentlichkeit über soziale Medien auf die Entdeckung einer bösartigen Kampagne aufmerksam gemacht, die mithilfe von KI-generierten Videos versucht, sich als er auszugeben und Nutzer mit vermeintlichen Anlagetipps zu betrügen . „Das ist irreführende Werbung. Bitte seien Sie vorsichtig: Ich habe derartige Nachrichten weder erstellt noch unterstütze ich sie“, erklärte der Sportler.
Nadals Fall ist nicht der erste seiner Art. Im vergangenen Sommer wurden auf Plattformen wie Instagram und YouTube ähnliche Videos entdeckt, in denen Kriminelle sich als bekannte Persönlichkeiten ausgaben, von Florentino Pérez über Yolanda Díaz und Pedro Sánchez bis hin zu Ana Botín . Einige von ihnen nutzten sein Bild, um für eine betrügerische Investitionsplattform zu werben und versprachen Gewinne zwischen 20.000 und 30.000 Euro – und das alles im Austausch für eine Anfangsinvestition von rund 250 Euro.
„Das ist nichts Neues. Wir haben schon viele Kampagnen gesehen, die denen ähneln, über die Rafa Nadal berichtet. Früher wurde für Betrugsversuche nur das Bild des Prominenten verwendet, aber jetzt, mit der Weiterentwicklung der künstlichen Intelligenz, werden direkt Videos erstellt“, sagte Josep Albors, Leiter für Forschung und Aufklärung beim Cybersicherheitsunternehmen ESET, gegenüber ABC.
Hallo zusammen, ich möchte diese Warnmeldung teilen. Sie ist auf meinen Social-Media-Konten ungewöhnlich, aber notwendig. Mein Team und ich haben festgestellt, dass auf einigen Plattformen gefälschte, von künstlicher Intelligenz generierte Videos kursieren, in denen eine Figur erscheint, die mein Bild und meine Stimme imitiert. In…
– Rafa Nadal (@RafaelNadal) 23. September 2025
Bis vor Kurzem nutzten Kriminelle lediglich gefälschte Fotos von Prominenten, um für betrügerische Dienste zu werben. Dank des technologischen Fortschritts verwenden sie heute echte Aufnahmen der Personen, die sie imitieren, und manipulieren deren Aussagen , indem sie deren Stimmen mithilfe künstlicher Intelligenz klonen, um einen nahezu identischen Ton zu erzeugen und deutlich glaubwürdiger zu klingen.
„Leider deutet alles darauf hin, dass diese Art von Betrug zunehmen wird. Viele Opfer fallen darauf herein und KI-Tools werden immer einfacher zu verwenden. Außerdem sprechen wir von sehr einfach durchzuführenden Kampagnen. Jeder Idiot mit einem Telefon kann das tun“, so Albors abschließend.
Cybersicherheitsexperten raten, allen Videos über vermeintlich einzigartige Investitionsmöglichkeiten in den sozialen Medien zu misstrauen. Es lohnt sich auch zu überlegen, ob es für jemanden wie Rafa Nadal sinnvoll ist, solche Dienstleistungen zu bewerben.
ABC.es