Sprache auswählen

German

Down Icon

Land auswählen

Italy

Down Icon

Die Chatbot-Desinformation, die die Proteste in Los Angeles anheizt

Die Chatbot-Desinformation, die die Proteste in Los Angeles anheizt
In dieser Folge von „Uncanny Valley“ diskutiert unser leitender Politikredakteur die Verbreitung von Desinformation im Internet nach dem Beginn der Proteste in Los Angeles.
Flammen verschlingen ein autonomes Waymo-Fahrzeug während eines Anti-ICE-Protestes in der Innenstadt von Los Angeles, Kalifornien, am 8. Juni 2025. Foto-Illustration: WIRED Staff; Foto: Getty Images

In den letzten Tagen gingen Einwohner von Los Angeles auf die Straße, um gegen die Einwanderungspolitik der Trump-Regierung und die immer häufigeren ICE-Razzien zu protestieren. Leah Feiger, leitende Politikredakteurin bei WIRED, diskutiert mit Zoë Schiffer, Direktorin für Wirtschaft und Industrie, über die damit verbundene Informationsflut in den sozialen Medien und darüber, wie KI-Chatbots wie Grok und ChatGPT falsche und mitunter provokante Antworten liefern.

In der heutigen Folge erwähnt: KI-Chatbots verschlimmern die Desinformation bei den Protesten in Los Angeles , von David Gilbert Ich habe mich jeder Sammelklage angeschlossen, die ich finden konnte, und das können Sie auch , von Andy Vasoyan Vibe Coding hält Einzug in Ingenieursberufe , von Will Knight

Sie können Zoë Schiffer auf Bluesky unter @zoeschiffer folgen. Schreiben Sie uns an [email protected] .

So hören Sie zu

Sie können den Podcast dieser Woche jederzeit über den Audioplayer auf dieser Seite anhören. Wenn Sie ihn jedoch kostenlos abonnieren möchten, um alle Folgen zu erhalten, gehen Sie wie folgt vor:

Wenn Sie ein iPhone oder iPad verwenden, öffnen Sie die Podcasts-App oder tippen Sie einfach auf diesen Link . Sie können auch Apps wie Overcast oder Pocket Casts herunterladen und nach „Uncanny Valley“ suchen. Wir sind auch auf Spotify .

Transkript

Hinweis: Dies ist eine automatisierte Abschrift, die Fehler enthalten kann.

Zoë Schiffer: Hier ist Zoë. Bevor wir anfangen, möchte ich Sie daran erinnern, dass wir wirklich von Ihnen hören möchten. Wenn Sie eine Frage zu KI, Politik oder Datenschutz haben, die Ihnen auf der Seele brennt, oder ein Thema, das wir Ihrer Meinung nach in der Sendung besprechen sollten, schreiben Sie uns an [email protected]. Und wenn Ihnen unsere Folgen gefallen, bewerten Sie sie bitte in Ihrer bevorzugten Podcast-App. Das hilft den Leuten wirklich, uns zu finden. Willkommen bei WIREDs Uncanny Valley . Ich bin Zoë Schiffer, WIREDs Direktorin für Wirtschaft und Industrie. Heute in der Sendung untersuchen wir, wie KI-Chatbots Desinformation über die anhaltenden Proteste in Los Angeles schüren. In den letzten Tagen sind Einwohner von L.A. auf die Straße gegangen, um gegen die Einwanderungspolitik der Trump-Regierung und die immer häufigeren ICE-Razzien zu protestieren. Die sozialen Medien sind voll von Informationen und Filmmaterial über die Proteste, und die Menschen versuchen, die tatsächlichen Geschehnisse zu überprüfen. KI-Chatbots wie Grok und ChatGPT liefern falsche und manchmal provokante Antworten. Wir diskutieren, wie sich dieses Muster entwickelt hat und welche Folgen es für die aktuelle Politik haben kann. Heute ist Leah Feiger, leitende Politikredakteurin bei WIRED, zu Gast. Leah, herzlich willkommen in der Sendung.

Leah Feiger: Danke, dass ich hier sein darf, Zoë.

Zoë Schiffer: Seit dem letzten Wochenende sind in Los Angeles diese massiven Proteste ausgebrochen. Beginnen wir also vielleicht einfach mit einem sehr groben Überblick über die Geschehnisse.

Leah Feiger: Letzte Woche brachen in L.A. Proteste nach ICE-Razzien aus. Zunächst waren sie kleiner als online dargestellt. Es hieß: „Da sind Horden von Menschen. Sie haben Los Angeles übernommen. Das ist ja krass.“ Tatsächlich fanden die Proteste in ganz bestimmten Gebieten statt und standen in engem Zusammenhang mit ICE-Razzien. Doch am Wochenende änderte sich die Lage. Trump rief die Nationalgarde, sehr zum Ärger von Kaliforniens Gouverneur Gavin Newsom, und online gab es heftige Diskussionen über die Rechte der Bundesstaaten versus Bundesrechte und darüber, wie all das dargestellt wird. Es gab viele Verhaftungen, viele Menschen waren sehr verärgert über die umstrittene Einwanderungspolitik dieser Regierung, und es gab einige ziemlich bestürzende Bilder von ICE-Razzien, nicht nur in L.A., sondern im ganzen Land. Das brodelt also schon seit einiger Zeit, und L.A. ist einer der ersten Orte, an denen wir solche Reaktionen beobachten.

Zoë Schiffer: Ja, ich meine, das ist mir von Anfang an besonders aufgefallen. Es fühlt sich an, als hätten wir zum ersten Mal eine so lautstarke Opposition gegen die Trump-Regierung erlebt, so wie wir es seit Januar immer wieder erwartet hätten. Bisher ist das aber nicht passiert, obwohl das, was sie getan und gesagt haben, im Vergleich zum üblichen politischen Ablauf ziemlich ungewöhnlich ist.

Leah Feiger: Absolut. Es war ziemlich wild, und natürlich gab es die Protestbewegung gegen Tesla Takedown und ein paar kleinere Proteste, die genau zu dem Zeitpunkt stattfanden, als DOGE, Elon Musks sogenanntes Department of Government Efficiency, seine Arbeit aufnahm. Aber Sie haben völlig Recht, es gab nichts in dieser Art von Protesten, und das liegt zum Teil daran, dass es einfach unglaublich persönlich ist. Wir hören Geschichten von Demonstranten, die erzählen, wie ihre Familienmitglieder von der ICE abgeholt wurden und nie wieder von ihnen gehört wurde. Es gibt landesweit erstaunliche Berichte von Menschen, die schockiert sind, dass ihre Nachbarn von der Straße geholt wurden. Und die Regierung hat die ganze Zeit angekündigt, dass sie das weiterhin tun wird. Der große Unterschied liegt erstens in der Reaktion der Menschen in der Gemeinde in Los Angeles und zweitens darin, dass dies nun wirklich zu einer Frage der Rechte der Bundesstaaten gegenüber der Bundesebene wird.

Zoë Schiffer: Und ich habe das Gefühl, dass wir im Laufe der Entwicklung, wie Sie sagten, auch versucht haben, herauszufinden, was hier wirklich vor sich geht. Was passiert hier? Und so wenden sie sich – ganz im Sinne von 2025 – an Chatbots und fragen ChatGPT und Grok: „Was passiert hier?“ Welche Fragen suchen die Leute also, und was passiert, wenn sie mit Chatbots darüber sprechen, was hier vor sich geht?

Leah Feiger: Okay. Ein etwas kontroverser Ansatz zum Einstieg. Ich finde es unglaublich ehrlich, wenn Leute ein Foto oder Video in den sozialen Medien sehen und denken: „Moment mal, ist das echt? Stimmt das?“ Das ist eigentlich ganz gut. Für mich ist das eine gute Sache.

Zoë Schiffer: Ja, Medienkompetenz.

Leah Feiger: Medienkompetenz. Wir schreien schon so lange danach. Aber das Schlimmste daran ist, dass diese Chatbots dieser Herausforderung einfach nicht gewachsen sind. Darf ich Ihnen ein Beispiel nennen? Wäre das in Ordnung?

Zoë Schiffer: Bitte, bitte.

Leah Feiger: Okay. Offensichtlich sind diese Leute nach den ICE-Razzien auf die Straße gegangen, und konservative Poster haben ihre Feeds mit Falschinformationen überflutet. Sie haben altes Protestmaterial, Ausschnitte aus Videospielen und Filmen gepostet und behauptet, es gäbe all diese Agitatoren. Es war eine Menge. Infolgedessen griffen die Leute auf KI-Chatbots wie Grok usw. zurück. Ein konkreter Fall war die Entsendung von 2.000 Nationalgardisten durch die Bundesregierung. Der San Francisco Chronicle veröffentlichte ein Foto dieser Soldaten, die auf dem Boden schliefen. Diese Bilder wurden von Gouverneur Newsom geteilt, der meinte: „Sie haben diese Truppen in unseren Staat geschickt, die wir nicht angefordert haben. Das schürt diese Situation, und jetzt haben sie tatsächlich keinen Schlafplatz.“ Unmittelbar nachdem Newsom dies geteilt hatte, behaupteten unzählige Leute auf X und Facebook, diese Bilder seien erfunden, KI-generiert oder bezögen sich auf ein anderes Ereignis. Und wir sprechen hier nicht nur von zufälligen Postern. Wir reden wie Laura Loomer, die Königin der Verschwörungstheoretiker.

Zoë Schiffer: Oh, wow.

Leah Feiger: Ja, genau. Wer hat schon Trumps Ohr? Das hat sich weit verbreitet. Und so gingen die Leute zu X's Grok und fragten: „Grok, was ist das?“ Und was hat Grok ihnen gesagt? Nein, nein. Grok sagte, das seien keine Bilder von den Protesten in L.A., sondern aus Afghanistan.

Zoë Schiffer: Oh, Grok, nein.

Leah Feiger: Sie meinten: „Es gibt keine glaubwürdige Unterstützung. Das ist eine falsche Zuordnung.“ Das war wirklich schlimm. Es war wirklich, wirklich schlimm. Und dann gab es noch eine andere Situation, in der ein paar andere Leute diese Fotos mit ChatGPT teilten, und ChatGPT meinte auch: „Ja, das ist Afghanistan. Das stimmt nicht, und so weiter und so fort.“ Das ist nicht so toll.

Zoë Schiffer: Ich meine, lassen Sie mich gar nicht erst von diesem Moment anfangen, der gerade erst kommt, nachdem viele dieser Plattformen ihre Faktencheck-Programme systematisch abgebaut und sich entschieden haben, bewusst viel mehr Inhalte durchzulassen. Und dann kommen noch Chatbots dazu, die trotz all ihrer Einsatzmöglichkeiten – und ich denke, sie können wirklich nützlich sein – unglaublich selbstbewusst sind. Wenn sie halluzinieren, wenn sie Fehler machen, dann auf eine Weise, die sehr überzeugend ist. Sie werden mich hier nicht die Google-Suche verteidigen sehen. Absoluter Unsinn, ein Albtraum. Aber es ist etwas deutlicher, wenn das schiefgeht, wenn man sich auf einem beliebigen, unglaubwürdigen Blog befindet, als wenn Grok einem mit absoluter Sicherheit behauptet, man sehe ein Foto von Afghanistan, obwohl das nicht der Fall ist.

Leah Feiger: Es ist wirklich beunruhigend. Ich meine, es halluziniert. Es ist eine richtige Halluzination, aber mit dem Gehabe des betrunkensten Studentenverbindungsstudenten, von dem du jemals auf einer Party in die Enge getrieben wurdest.

Zoë Schiffer: Albtraum. Albtraum. Ja.

Leah Feiger: Sie sagen: „Nein, nein, nein. Ich bin mir sicher. Ich war mir noch nie in meinem Leben so sicher.“

Zoë Schiffer: Absolut. Ich meine, okay, warum geben Chatbots so selbstsicher falsche Antworten? Warum sagen sie nicht einfach: „Ich weiß es nicht, vielleicht solltest du woanders nachschauen. Hier sind ein paar seriöse Stellen, wo du diese Antwort und diese Informationen finden kannst.“

Leah Feiger: Weil sie das nicht tun. Sie geben nicht zu, dass sie etwas nicht wissen, was ich echt verrückt finde. Es gibt tatsächlich viele Studien dazu, und eine aktuelle Studie zu KI-Suchtools am Tow Center for Digital Journalism der Columbia University ergab, dass Chatbots „im Allgemeinen schlecht darin sind, Fragen abzulehnen, die sie nicht präzise beantworten können. Stattdessen bieten sie falsche oder spekulative Antworten.“ Echt, wirklich, wirklich verrückt, vor allem wenn man bedenkt, dass es während der Wahl so viele Artikel gab, in denen stand: „Oh nein, tut mir leid, ich bin ChatGPT und kann mich nicht politisch äußern.“ Man denkt sich: Naja, jetzt mischt man sich ja zu vielem ein.

Zoë Schiffer: OK, ich denke, wir sollten hier bei dieser sehr schrecklichen Bemerkung eine Pause machen, wir sind gleich wieder da.

[brechen]

Zoë Schiffer: Willkommen zurück im Uncanny Valley . Heute ist Leah Feiger, leitende Politikredakteurin bei WIRED, zu Gast. OK, es geht also nicht nur darum, Informationen und Filmmaterial zu verifizieren, sondern es gab auch jede Menge Berichte über irreführende, KI-generierte Videos. Es gab einen TikTok-Account, der damit begann, Videos eines mutmaßlichen Nationalgardisten namens Bob hochzuladen, der bei den Protesten in L.A. im Einsatz war. Und man konnte sehen, wie er falsche und aufrührerische Dinge sagte, wie zum Beispiel, dass die Demonstranten „mit Öl gefüllte Luftballons hineinwerfen“, und eines der Videos wurde fast eine Million Mal angesehen. Also, ich weiß nicht, es scheint, als müssten die Leute etwas geschickter darin werden, derartige gefälschte Aufnahmen zu erkennen, aber das ist schwierig in einer Umgebung, die von Natur aus kontextlos ist, wie ein Post auf X oder ein Video auf TikTok.

Leah Feiger: Absolut. Und der TikTok-Livestream von Bob, den du erwähnt hast, wurde von der BBC entlarvt und entfernt. Er ist verschwunden. Aber die Leute reagieren darauf: „Oh mein Gott, das sind die Mainstream-Medien. Die schalten das einfach ab. Hier sind diese Informationen.“ Es ist also so, dass selbst wenn man die Sache findet und entlarvt, es immer noch nicht reicht. Und ich muss auf die Fragen der Medienkompetenz zurückkommen. Vielleicht ärgern mich die Fehler der KI-Chatbots deshalb so sehr. Denn es gibt tatsächlich Leute – nicht alle, aber es gibt sicher einige, die es ernst meinen – fragen: „Ist das echt? Kann mir bitte jemand sagen, ob das echt ist?“

Zoë Schiffer: Oh, absolut. Ja, sie wollen es wissen. Ich weiß. Meine arme Mutter hat mir neulich ein Video gezeigt, in dem ein paar identische Faultierbabys in die Kamera schauten. Sie meinte: „Sind die nicht süß? Das habe ich auf Facebook gefunden.“ Und ich sagte: „Mama, das sind keine echten Faultiere. Wir müssen weitermachen.“ Sie war am Boden zerstört.

Leah Feiger: Ich glaube allerdings, dass ich mit dem KI-Tierfraß vielleicht einverstanden bin.

Zoë Schiffer: Die eine Form von KI, die Leah gefällt, sind die KI-Tiere.

Leah Feiger: Nein, nein, ich nehme es zurück. Wie auch immer, es steht weniger auf dem Spiel, aber es trägt wohl immer noch dazu bei, dass die Frage, was real ist, nicht auffällt. Wer kann das schon sagen? Und die Sache ist, dass wir das in gewisser Weise schon einmal erlebt haben. Vor fünf Jahren war 2020, und die George-Floyd-Proteste im ganzen Land waren massiv, und es gab viele Probleme mit Fehlinformationen. Viele Leute sagten: „Nein, das ist das. Das ist dieses Videospiel. Das ist das.“ Aber fünf Jahre später hat sich die Lage völlig verändert. Es gibt immer noch dieselben schlechten Schauspieler, aber es ist jetzt viel verwirrender. Das Vertrauen in die Medien ist gesunken. An wen wenden Sie sich? An Ihren zuverlässigen KI-Chatbot, der in jede einzelne Social-Media-App integriert ist, auf die Sie persönlich Zugriff haben.

Zoë Schiffer: Dadurch wurden auch die anderen Mechanismen zur Faktenprüfung abgeschafft. So, jetzt stehen wir da.

Leah Feiger: Ja.

Zoë Schiffer: Das haben wir immer wieder erlebt. Es war interessant, weil Elon Musk bekanntlich einen großen Teil des Content-Moderationsteams bei X, ehemals Twitter, entlassen hat. Er hat auch einige der Regeln zur Content-Moderation abgeschafft, die das Unternehmen jahrelang erwogen, eingeführt und intern diskutiert hatte. Und da sich große Nachrichtenereignisse in Echtzeit abspielen, wie sie Twitter ja eigentlich kann, wie Erdbeben, Krieg, Proteste oder was auch immer – diese Momente, in denen früher alle zu X geströmt wären, um herauszufinden, was los ist – sieht man immer noch Leute, die sich genauso verhalten. Aber die Fähigkeit, herauszufinden, was auf dieser Plattform tatsächlich vor sich geht, hat in den letzten Jahren stark abgenommen. Es gibt gute Informationen, aber sie sind vermischt mit all diesen schrecklichen, schlechten und falschen Informationen, und es ist wirklich schwer zu unterscheiden, was was ist.

Leah Feiger: Es ist so ein Chaos, und ich bin kein X-Poster mehr, aber ich schaue regelmäßig vorbei, um zu sehen, was los ist. Es ist Müll. Es ist eine Kombination aus beidem, gerade jetzt, in diesem ganz besonderen Moment, weil Elon Musk zurück ist und ununterbrochen über die Raumfahrt postet. Es ist so, als ob die Beiträge von Elon Musk ganz oben in meinem Feed stehen. Los Angeles brennt, das Feuer breitet sich auf den Rest Amerikas aus, und dann sind da noch ein paar Journalisten, die immer noch da sind und sagen: „Lesen Sie meine Geschichte.“

Zoë Schiffer: Sie kommen nicht voran? Ja.

Leah Feiger: Und es ist so traurig. Ja.

Zoë Schiffer: Ja, ich meine, wenn man versucht, ein X-Influencer zu werden, sind die Dinge, die man teilen muss, zwangsläufig etwas kontrovers, etwas aufrührerisch, etwas schockierend. In manchen Fällen werden sie von der Plattform dafür bezahlt, solche Inhalte zu posten. Ich denke, es gibt ein paar Leitplanken. Wenn man einen Community-Hinweis zu einem Beitrag hat, sollte man dafür kein Geld bekommen, aber die Anreizstruktur ist, wie Sie erwähnt haben, darauf ausgelegt, die Leute zu ermutigen, das Verrückteste zu posten, was sie sich erlauben können, und genau das sehen wir gerade.

Leah Feiger: Wofür? Um die Taschen dieser Unternehmen und dieser Milliardärsbesitzer zu füllen. Aber die eigentlichen Poster – ich bin sicher, viele Leute haben den Betrug begangen –, aber es gab erst kürzlich diesen erstaunlichen Artikel in der New York Times über ein sehr, sehr etabliertes …

Zoë Schiffer: Richtig.

Leah Feiger: Ja, der Poster auf X. Und er meinte: „Ich bin Republikaner, und das ist mir wichtig.“ Er macht weder Urlaub noch Wochenenden. Er verbringt den ganzen Tag am Computer und verdient weniger als 60.000 Dollar im Jahr. Da frage ich mich nur: Was ist der Anreiz? Ist der unglaubliche Serotoninschub, wenn ein Tweet viral geht? Kann man damit nicht mal Lebensmittel bezahlen? Die Tatsache, dass Musk, Zuckerberg und all diese Leute es geschafft haben, die Leute mit aufrührerischen, ungenauen Inhalten davon zu überzeugen, dass dies immer noch der richtige Ort ist, ist wohl der größte Betrug von allen.

Zoë Schiffer: Ja. Unglaublich. Okay, wir machen noch eine kurze Pause und wenn wir zurückkommen, teilen wir unsere Empfehlungen, was Sie diese Woche auf WIRED.com lesen sollten.

[Schnabel]

Zoë Schiffer: Willkommen zurück im Uncanny Valley . Ich bin Zoë Schiffer, WIRED-Direktorin für Wirtschaft und Industrie. Heute ist Leah Feiger, die leitende Politikredakteurin von WIRED, zu Gast. Bevor wir loslegen, verrate Leah unseren Zuhörern, was sie unbedingt auf WIRED.com lesen sollten.

Leah Feiger: Ich stehe voll und ganz hinter dieser Empfehlung. Es ist ein Artikel von Andy Vasoyan mit dem Titel „Ich habe mich jeder Sammelklage angeschlossen, die ich finden konnte, und das können Sie auch.“ Er geht auf den Punkt. Ich möchte wissen, ob ich die zusätzlichen 5 Dollar bekommen sollte. Ich würde es gerne wissen. Und dieser Autor hat es geschafft. Sie haben es geschafft. Sie sind auf dem richtigen Weg. Sie sprechen mit Leuten, die sich dafür einsetzen, dass andere ihr Geld bekommen, und diese Statistik wird mich nie vergessen: Nur etwa 4 Prozent dieser Sammelklagen, die tatsächlich anfallen, werden tatsächlich von Menschen eingefordert, die es verdienen. Erschütternd.

Zoë Schiffer: Ich weiß. Ich bin Teil davon. Ich bekomme solche Briefe ziemlich oft. Was habe ich kürzlich bekommen?

Leah Feiger: Zoë, du bist Teil des Problems. Hol dir die 7 Dollar, Zoë.

Zoë Schiffer: Ich weiß.

Leah Feiger: Sie können jetzt Venmo.

Zoë Schiffer: Ich habe es einmal gemacht, und es waren ungefähr 2 Dollar, und ich dachte nur: „Okay.“ Ich glaube, ich hatte erwartet, dass ich 3.000 Dollar bekomme, aber das ist nicht passiert.

Leah Feiger: Okay. Nein, das ist ein langer Weg. Das ist ein Spiel. Okay, was ist deins? Was magst du am liebsten?

Zoë Schiffer: Meine Empfehlung ist eine Geschichte, die wir diese Woche von unserem KI-Reporter Will Knight veröffentlicht haben. Darin geht es darum, wie Vibe-Coding in Ingenieursberufen Einzug hält – und es ist wirklich toll. Wir haben mit Ingenieuren im ganzen Silicon Valley gesprochen und gehört, dass sie von einer bevorstehenden Apokalypse der Ingenieurswissenschaften sprechen, weil KI-Programmieragenten immer besser werden. Aber als Will die Reportage schrieb, war die Sache viel komplizierter. Die Leute sagten, es sei, als würde man einem Kleinkind eine Kettensäge geben, und man könne sich wirklich tolle Dinge ausdenken. Ja, man kann eine ganze App und Website programmieren, indem man einfach mit einem Chatbot spricht, aber man kann auch sehr fehlerhaften Code erstellen, Code mit allen möglichen Sicherheitslücken. Und die Leute meinten: „Sobald man sich um die Funktionalität der App kümmert, die man gerade entwickelt, bricht alles zusammen.“

Leah Feiger: Mir ist gerade der kalte Schweiß ausgebrochen.

Zoë Schiffer: Ich weiß. Ich weiß. Ich dachte, das sind alle Albträume von Leah in einem.

Leah Feiger: Meine wahre Horrorgeschichte.

Zoë Schiffer: Leah, wir sollten dir einen Vibe-Code fürs Geschäft geben.

Leah Feiger: Oh mein Gott. Ich würde da sitzen und anfangen zu weinen. Ehrlich gesagt, das wäre guter Inhalt. Ich trage zur klickbaren Höllenlandschaft im Internet bei. Das ist gut. Damit schließt sich für uns der Kreis.

Zoë Schiffer: Du bist jetzt eine TikTok-Influencerin. Du hast es hier zuerst gehört. Das ist unsere Sendung für heute. Wir verlinken in den Shownotes auf alle Geschichten, über die wir gesprochen haben. Schau dir unbedingt die Donnerstagsfolge von „Uncanny Valley“ an, in der es um Technologieunternehmen geht und warum sie stark auf KI-Agenten setzen. Nächste Woche haben wir frei und sind übermorgen wieder da. Adriana Tapia und Jordan Bell haben diese Folge produziert. Amar Lal von Macro Sound hat sie gemischt. Jake Lummus war unser New Yorker Studiotechniker. Jordan Bell ist unser ausführender Produzent. Chris Bannon ist Leiter für Global Audio bei Condé Nast. Und Katie Drummond ist die globale Redaktionsleiterin von WIRED.

wired

wired

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow