Zwischenzeitlich wird KI in weiten Teilen der Öffentlichkeit dämonisiert. Eine Warnung vor möglichen negativen Entwicklungen ist sicher bei jeder Technologie angebracht. Aber das alleine hilft ja nicht. OpenAI hat als erstes erkannt das, das Training der Modelle vielleicht wichtiger ist als deren grundlegende Weiterentwicklung selbst. Und ein Weg gefährliche Entwicklung bei der KI einzugrenzen könnte die “demokratisierung” des Trainings sein. Als so ähnlich wie bei Wikipedia oder auch anderen OpenSource Projekten eine Community von Freiwilligen die Artikel schreibt und redigiert und die Qualität sichert. Hier also Freiwillige einer public AI-Community, die mögliche Inhalte welche sich z.B Chat-GPT bei normalen Chats Kontext bezogen unter Quellenangabe, neu aus dem Internet dazu lädt , als mögliche Trainingsinhalte bewertet. Diese werden dann ab einer gewissen statistischen Signifikanz und positiver Bewertung mit in ein kontinuierliches Delta-Training einbezogen. Das ist sicher eine große Herausforderung organisatorisch wie technisch dafür die Voraussetzungen zu schaffen, aber meines Erachtens werden wir nur eine “gute” allgemeine KI bekommen wenn wir den Menschen gerade auch beim Training “in the Loop” halten. Es ist ähnlich wie bei der Entwicklung von Kindern , auf den Bauplan die Gene kommt es auch an, aber entscheidend sind die Trainer (= Eltern) und da kommt es nicht so sehr auf die Menge als auf die Qualität der Inhalte und deren Vermittelung an.