Durch KI-Tools wie NotebookLM können Podcasts mittlerweile in wenigen Minuten generiert werden. Das verringert die Einstiegsbarrieren, führt aber auch dazu, dass Spammer und Betrüger massenhaft minderwertige Inhalte verbreiten. Die Podcast-Suchmaschine Listen Notes setzt sich nun gegen die Verbreitung solcher Fake-Podcasts ein.
Listen Notes kämpft gegen KI-Inhalte
Insbesondere seit dem Start der Audio-Funktion von NotebookLM, einem KI-gestützten Notiz-Tool von Google, steigt die Zahl von KI-generierten Podcasts. Das Programm erstellt innerhalb weniger Minuten aus hochgeladenem Material eine Audio-Episode, in der sich zwei Hosts engagiert über das entsprechende Thema unterhalten. Die Texte als auch die Stimmen des Audios erstellt das Tool mit KI.
Um Podcasts zu erkennen, die die Audio-Funktion von NotebookLM nutzen, hat Listen Notes die Anwendung „NotebookLM Detector“ gebaut. Das Ziel: Die Plattform frei von automatisierten, inhaltsarmen Shows zu halten und den Hörern qualitativ hochwertige, menschlich produzierte Inhalte anzubieten. Dank des Tools hat Listen Notes bereits über 500 Fake-Podcasts von der eigenen Plattform gelöscht.
Auffällig ist, dass viele der KI-Podcasts bei "Spotify for Podcasters" gehostet werden. Die Hosting-Plattform ist kostenlos und damit für Spammer besonders attraktiv.
Negative Auswirkungen auf Hörer und Podcaster
Die wachsende Anzahl an KI-generierten Podcasts erschwere es den Hörern, authentische Inhalte zu finden. Auch die Glaubwürdigkeit des Mediums könne durch minderwertige KI-Inhalte abnehmen, warnt das Team von Listen Notes.
Gleichzeitig würden echte Podcast-Schöpfer zunehmend von der Masse an minderwertigen Shows verdrängt. Diese Entwicklung bedrohe nicht nur die Kreativität der Podcast-Landschaft, sondern auch der Wille von kleineren Podcast-Creatorn, Zeit und Mühe in die Erstellung von Inhalten zu stecken.
Appell für verantwortungsvolle KI-Nutzung
In einem offenen Brief an das NotebookLM-Team fordert Listen Notes, dass Google selbst ein Tool bereitstellt, dass Inhalte erkennt, die durch NotebookLM erstellt worden sind. Ihre eigens erstellte Anwendung, NotebookLM Detector, werde KI-generierte Inhalte nicht erkennen können, wenn NotebookLM weiter optimiert wird: „Auch wenn die Leistung derzeit gut ist, sind wir uns darüber im Klaren, dass dies mit der Weiterentwicklung von NotebookLM zu einem ständigen Wettrüsten wird. Letztlich könnte es sein, dass Tools wie Notebook LM Audiodateien generieren, die nicht mehr von menschlich produzierten Inhalten zu unterscheiden sind.“
Wie Listen Notes auf der Programmier-Plattform GitHub schreibt, konnten sie sich bisher nicht mit dem Google-Team einigen: „Nach weiteren E-Mails mit dem NotebookLM-Team wurde deutlich, dass sie nicht in der Lage sind, Tools oder Anleitungen zur Verfügung zu stellen, um die Verbreitung von spammigen, gefälschten Podcasts, die von NotebookLM generiert werden, einzudämmen.“ Sie werfen Google und seinen Mitarbeitern außerdem vor, das Problem nicht ernst zu nehmen, weil es keinen Einfluss auf ihre Karriere habe: „Es gibt wenig Anreiz für sie, sich mit Problemen zu befassen, die sich nicht direkt auf ihre Leistungsbeurteilung auswirken. Leider macht dies die Podcasting-Branche angreifbar, aber für eine Handvoll Googler ist das kein dringendes Problem.“