Mein KI-Recherche-Experiment

Mein KI-Recherche-Experiment
Photo by Steve A Johnson / Unsplash

Ich habe mich über den Weihnachtsurlaub hingesetzt und KI einem privaten Praxistest unterzogen - ich wollte herausfinden, wie gut mich aktuelle Systeme bei der Recherche unterstützen können, und wo die Grenzen sind.

Das Thema, für das ich mich entschieden habe, war die Landshuter Kommunalpolitik. Es stehen im März die Kommunalwahlen an, also wollte ich mich über den aktuellen Stand der politischen Diskussion informieren.

Was habe ich gemacht?

Ich habe mich dazu entschieden mich auf Bautätigkeiten und Infrastruktur zu konzentrieren, sonst wäre das mengenmäßig eskaliert. Also wollte ich mir Unterlagen des Bausenats ansehen. Problem: um an die Protokolle und Vorlagen zu kommen, muss man sich auf dieser Seite https://ris.landshut.de/buergerinfo/si0041.php?__kgrnr=19 durch einen Wust an Links klicken, das dauert Stunden. Ich habe mir also (mit KI-Unterstützung) ein Python-Skript geschrieben, das mir alle pdf-Dateien der Seite runterlädt. Danach hatte ich einen Wust an Seiten. Das manuelle Durcharbeiten hätte Tage gedauert.

Ich habe mir dann mit einem zweiten Skript eine Übersicht aller pdf-Dateien in eine Excel schreiben lassen (Name, Datum, Inhalt). Dabei habe ich festgestellt, dass viele der Seiten Scans sind, also nicht oder nur schlecht maschinenlesbar (übrigens auch so ein Thema: digitale Barrierefreiheit).

Ich brauchte also eine Lösung, wie ich an die Inhalte der pdf komme. Hierzu habe ich NotebookLM von Google verwendet. Dort habe ich (mit ein paar Schwierigkeiten, weil NotebookLM nicht allzu viele pdf oder sehr große pdf gleichzeitig verarbeiten kann) dann die Inhalte reingeladen.

Und genau hier spielt KI ihre Vorteile aus: Ich habe jetzt konkrete Inhalte und Kontext. Damit kann die KI wunderbar umgehen. Ich konnte also Sachen fragen wie: Was sind die aktuellen Bauprojekte in Landshut? Wo gibt es Streitigkeiten? Wer sind die wichtigsten handelnden Personen?

Ich habe dann noch einen zweiten Recherche-Schritt unternommen, weil ich noch die journalistische Perspektive einschließen wollte. Habe mir also ein kurzes Abo bei der lokalen Zeitung besorgt und mir im Archiv die relevanten Artikel zu bestimmten Bauvorhaben rausgesucht.

Ich hatte dann eine Liste von etwa 30 Artikeln. Diese habe ich mir alle in Notion geladen. Mit der integrierten KI von Notion habe ich mir dann eine Datenbank all dieser Artikel bauen lassen und mir so innerhalb von Notion eine Recherche-Grundlage aufgebaut. Danach konnte ich die KI um Zusammenfassungen der Artikel fragen, mir die wichtigsten Themen clustern lassen und habe jetzt auch eine gute Übersicht der aktuellen Projekte aus journalistischer Perspektive.

Was ich nicht mehr gemacht habe, aber noch spannend wäre: Ein Mapping der Ergebnisse aus NotebookLM mit den Inhalten aus der journalistischen Recherche. Dann würde sich wahrscheinlich noch ein größeres Bild ergeben.

Ein kurzes Fazit: Ich finde, dass die Recherche-Möglichkeiten durch den gezielten Einsatz von KI irrsinnig beschleunigt werden kann. Etwas technisches Wissen ist noch nötig und auch der Einsatz verschiedener KI-Tools macht die Sache letztendlich noch aufwändig.

Was ich aber gemerkt habe: KI ist für mich aktuell dann sinnvoll, wenn ich sie gezielt als Werkzeug für meine Zwecke einsetze. Das funktioniert wunderbar. Übrigens: Da ich keine generischen Inhalte erstellen wollte, sondern ausschließlich Quellen-bezogen gearbeitet habe, sind auch keine inhaltlichen Fehler oder Halluzinationen drin (zumindest nicht nach meinen Stichproben).

Tools, die ich eingesetzt habe:

- Terminal

- ChatGPT

- Google Gemini

- NotebookLM

- Notion (AI)