Berichte aus der Arbeitsgruppe

Lesen Sie hier immer den aktuellen Bericht aus der Arbeitsgruppe Betriebsrat.

Künstliche Intelligenz bekommt klare Leitplanken

Künstliche Intelligenz war das Thema der mbuf-Arbeitsgruppe Betriebsrat am 11.Oktober. 27 Mitglieder haben sich über die rechtliche Einordnung und die sozialen Auswirkungen dieser Technologie, über Rahmenvereinbarungen des Betriebsrats und über Fallbeispiele für den praktischen Einsatz in Unternehmen ausgetauscht.

„Die rechtlichen Rahmenbedingungen für Künstliche Intelligenz sind noch weitgehend ungeklärt und hinken der technischen Entwicklung hinterher“, berichtet Thomas Dankert, einer der drei Leiter der mbuf-Arbeitsgruppe Betriebsrat. So lassen sich beispielsweise die von intelligenten Systemen erzeugten Inhalte nicht urheberrechtlich schützen, da die Systeme im rechtlichen Sinne keine Persönlichkeit darstellen und es bei den Ergebnissen auch keine Schöpfungshöhe gibt. Andererseits seien Systeme wie ChatGPT mit riesigen Datenmengen aus dem Internet trainiert worden, ohne dabei die Rechte Dritter zu beachten. Die Betreiberfirma OpenAI verweise darauf, dass der Nutzer sicherstellen muss, dass die Ergebnisse des Chatbots frei von Urheberrechten sind: „Das können die Anwender keinesfalls leisten, denn sie wissen ja nicht, woher die Quelldaten kommen“, erläutert Dankert.

Die EU versucht gerade im AI Act die rechtlichen Rahmenbedingungen für Künstliche Intelligenz zu setzen. Die Systeme werden dabei in Risikokategorien eingeteilt. Je kritischer ein System ist, desto mehr Pflichten erlegt die Politik dem Technologieanbieter auf. „Das beginnt bei der Transparenz, wo ein Anbieter kenntlich machen muss, dass ein Text oder ein Bild von einem intelligenten System erzeugt wurde“, erläutert Dankert. „Im Rahmen der Qualitätssicherung müssen die Anbieter die Ergebnisse ihrer Systeme auf den Wahrheitsgehalt hin überprüfen. Zudem dürfen ihre Systeme die politische Willensbildung nicht aushebeln.“ Die konkrete Ausgestaltung der EU-Richtlinie wird erst dann sichtbar, wenn die Mitgliedsstaaten sie in nationales Recht umsetzen. Was Anbieter und Anwender allerdings realistischer Weise gar nicht leisten können, dürfte wohl auch nicht justiziabel sein.

Betriebsvereinbarungen regeln den Technologieeinsatz

Bei der Mitbestimmung des Betriebsrats geht es um Vereinbarungen, die den Einsatz dieser Technologie regeln. „Die Betriebsvereinbarungen beschreiben, welche Inhalte die Anwender auswerten und welche Fragen sie dabei stellen dürften“, berichtet Dankert. Besonders wichtig sei es, dass die Anwender die Grenzen der Systeme kennen: „Die Mitarbeiter wollen solche Systeme nutzen, und wir blockieren das keinesfalls. Wir wollen aber Leitplanken aufstellen, die den Rahmen für den passenden Umgang aufzeigen. Und wir appellieren, dass niemand die Ergebnisse eines Chatbots ohne Prüfung für bare Münze nimmt.“

In zwei mbuf-Mitgliedsunternehmen bereiten die Betriebsräte Rahmenvereinbarungen für den Einsatz Künstlicher Intelligenz vor. Bis diese Vereinbarungen stehen, ist jeweils ein Proof-of-Concept, also eine Testphase erlaubt. Im Einsatz ist in beiden Unternehmen Azure Open AI. Dabei handelt es sich um eine lokale Kopie des großen Sprachmodells von ChatGPT, bei der laut Microsoft keine Daten nach außen gelangen. Die Abrechnung erfolgt pro Abfrage. In einem Unternehmen erfasst der Betriebsrat erfasst, welche Fachabteilungen Azure AI wie nutzen und welche Kosten dabei anfallen. Die konkreten Inhalte der einzelnen Abfragen sind dabei nicht sichtbar. Im zweiten Anwenderunternehmen findet gar kein Logging statt.

Gemeinsam erstellte Spezifikationen und Weiterbildung

Die sozialen Auswirkungen Künstlicher Intelligenz hat der Vortrag eines Referenten vom Forum soziale Techniknutzung behandelt. Die Anregung dabei lautet, dass der Betriebsrat nicht alles einfach hinnimmt, was ein Arbeitgeber sich beim Einsatz von Technik vorstellt. Vielmehr sollte man in einem sogenannten ‚moderierten Spezifikationsdialog“ gemeinsam mit den Fachabteilungen sicherstellen, dass die Systeme bestimmte Grundregeln einhalten: „Anstatt bei jeder Antwort eines Chatbots zu prüfen, ob dieser die Regeln eingehalten hat, weist man das System schon im Vorfeld an, welche Antworten gut sind und welche einen Tabubruch darstellen“, erläutert Dankert. „Sobald ein Unternehmen selbst intelligente Anwendungen erstellt, kann es diese Regeln dort hinterlegen.“

Zu den sozialen Auswirkungen von Künstlicher Intelligenz gehört es auch, dass die Systeme in einigen Bereichen Arbeitsplätze bedrohen. „Hier sollten die Unternehmen ihre Mitarbeiter so weiterbilden, dass sie künftig die höherwertigen Aufgaben übernehmen können“, erläutert Dankert. „Die Künstliche Intelligenz bearbeitet dann die wiederkehrenden Routinetätigkeiten. Die kreativen Aufgaben erledigen weiterhin Menschen, und die Unternehmen sollten den Anspruch haben, dass diese aus der eigenen Mannschaft kommen.“

Die nächste Sitzung der mbuf Arbeitsgruppe wird Ende Januar oder Anfang Februar als Online Sitzung stattfinden, bevor es dann im Juni oder Juli 2024 wieder ein Präsenztreffen gibt. Zu beiden Sitzungen können die Mitglieder Themen einreichen. Jürgen Frisch