Verbieten kann man da wenig bis gar nichts mehr.
Stimmt nicht ganz. AI ist ein weiter Begriff. Aber wovon aktuell alle reden sind nur die Large Language Models (LLM) und die Bildgeneratoren.
Die relevanten kannst du an einer Hand abzählen: OpenAI / Microsoft mit GPT bzw Bing und Dall-E, Stable Diffusion und Midjourney. Google wird noch dazu kommen.
Alle diese Firmen haben ihren Sitz in den USA / UK. D.h.sie agieren nicht im rechtsfreien Raum. Ausnahme ist Stable Diffusion, das auch als Open Source verfügbar ist und somit von jedermann weiter entwickelt werden kann.
An die AI Bilder werden wir uns eh gewöhnen müssen. Eine Kennzeichnung und ein generelles Verbot kann nicht funktionieren.
Viel wichtiger sind aber die LLM wie ChatGPT, denn sie werden weiter in Richtung AGI entwickelt ("Artificial General Intelligence"), eine dem Menschen ähnliche oder überlegene Intelligenz. Bildgeneratoren machen nur Bilder oder Video, sind aber sonst dumm. LLM dagegen können selber Überlegungen zu allen möglichen Fragen anstellen. Also auch was gut oder schlecht ist und welche Handlungen daraus folgen sollten.
Darum fordern Elon Musk und Co einen Entwicklungsstop für 6 Monate, um Gefahren und Sicherheiten zu diskutieren.
Die Entwicklung von ChatGPT ist ager auch so aufwändig, dass das aktuell nur sehr wenige Firmen auf der Welt überhaupt leisten können. Solange das so ist, können auch Regierungen diese Anbieter klar identifizieren und Vorgaben machen. Was der CEO von OpenAI sogar selber einfordert.
Schwieriger ist die Umsetzung bei 3rd party Software, die im Hintergrund die API von GPT nutzt aber nach vorne unter einem eigenen Namen auftritt Aber auch da ist zumindest die rechtliche Vorgabe einfach formuliert. Apple beginnt schon Apps im App Store herauszufiltern, die GPT nutzen und ihnen härtere Vorgaben beim Jugendschutz zu machen.
Sobald irgendwann mehrere Anbieter weltweit vergleichbar mächtige Tools entwickelt haben wird das natürlich alles schwerer kontrollierbar. Aber noch ist es nicht soweit.