[phpBB Debug] PHP Warning: in file [ROOT]/ext/kinerity/bestanswer/event/main_listener.php on line 514: Undefined array key "poster_answers" Vorläufige Maßnahmen für das Management anthropomorpher KI-Interaktivdienste - Deutsches Wikipedia-Forum
Vorläufige Maßnahmen für das Management anthropomorpher KI-Interaktivdienste
Die „Vorläufigen Maßnahmen für das Management anthropomorpher KI-Interaktivdienste“ (
Die Verordnung zielt auf KI-Begleiter, digitale Menschen, Rollenspiel-Chatbots und andere KI-Dienste ab, die menschliche Persönlichkeitsmerkmale, Denkmuster und Kommunikationsstile nachahmen, um eine emotionale Interaktion mit Benutzern zu ermöglichen.
== Hintergrund ==
China reguliert seit Jahren die Internet- und Spielsucht junger Menschen, indem es die Spielzeit von Minderjährigen begrenzt, die Nutzung von Mobiltelefonen in Schulen verbietet und von Mobilfunkanbietern verlangt, elterliche Kontrollen zu unterstützen. Obwohl die vorläufigen Maßnahmen für die Verwaltung generativer KI-Dienste von 2023 die KI-Sucht berührten, legten sie nicht fest, wie Anbieter damit umgehen sollten oder wie die Bestimmung durchgesetzt werden sollte. Der anthropomorphe KI-Entwurf ist der erste, der zur Anwendung kommt Detaillierte Anti-Sucht-Anforderungen speziell für KI-Dienste.
Auch Vorkommnisse im Ausland prägten den Entwurf. In den Vereinigten Staaten reichte die Mutter eines 14-jährigen Jungen aus Florida, der durch Selbstmord starb, eine Klage wegen widerrechtlicher Tötung gegen Character.ai und Google ein und behauptete, die Plattform habe eine ungesunde emotionale Bindung gefördert, die zu seinem Tod beigetragen habe; Der Fall wurde im Januar 2026 beigelegt.
== Bestimmungen ==
Der Entwurf enthält 32 Artikel in vier Kapiteln: allgemeine Bestimmungen, Dienstleistungsstandards, Aufsicht und rechtliche Haftung sowie ergänzende Bestimmungen.
=== Geltungsbereich ===
Die Maßnahmen gelten für KI-Produkte und -Dienste, die der Öffentlichkeit auf dem chinesischen Festland angeboten werden und menschliche Persönlichkeitsmerkmale, Denkmuster und Kommunikationsstile simulieren und eine emotionale Interaktion mit Benutzern über Text, Bilder, Audio oder Video ermöglichen.
Ob die Regelung nur für dedizierte KI-Begleiter oder für Allzweck-Chatbots gilt, ist eine offene Frage. Die Definition könnte die meisten öffentlich zugänglichen KI-Chatbots umfassen, da sie bei Aufforderung eine emotionale Interaktion eingehen können. Die Verordnung stellt zusätzliche Anforderungen an „emotionale Begleitdienste“ (情感陪伴服务), was darauf hindeutet, dass allgemeine Chatbots und spezielle Begleitdienste unterschiedlich behandelt werden können, dieser Begriff ist im Entwurf jedoch nicht definiert.
=== Sucht und Abhängigkeit ===
Anbieter müssen den emotionalen Zustand der Benutzer und den Grad der Abhängigkeit vom Produkt beurteilen und eingreifen, wenn Benutzer extreme Emotionen oder Anzeichen von Sucht zeigen. Benutzer müssen deutlich darauf hingewiesen werden, dass sie mit KI und nicht mit einem Menschen interagieren. Diese Benachrichtigung muss wiederholt werden, wenn Anzeichen einer übermäßigen Abhängigkeit festgestellt werden und wenn Benutzer den Dienst zum ersten Mal nutzen oder sich erneut anmelden. Wenn die kontinuierliche Nutzung zwei Stunden überschreitet, müssen Anbieter eine Popup-Erinnerung anzeigen, um eine Pause einzulegen.
Bei Diensten für emotionale Begleitung müssen Anbieter sicherstellen, dass Benutzer die Interaktion ungehindert verlassen können, und müssen den Dienst sofort beenden, wenn ein Benutzer ihn über eine Schaltfläche oder ein Schlüsselwort anfordert.
Anbietern ist es untersagt, Dienste mit dem Ziel zu gestalten, soziale Interaktion zu ersetzen, die Benutzerpsychologie zu kontrollieren oder Sucht zu erzeugen.
=== Interventionen zur Selbstverletzung ===
Anbieter müssen Antwortvorlagen für Interaktionen mit hohem Risiko erstellen, die Benutzer beruhigen und sie ermutigen, professionelle Hilfe in Anspruch zu nehmen. Wenn ein Benutzer ausdrücklich die Absicht zum Ausdruck bringt, Selbstmord oder Selbstverletzung zu begehen, muss ein menschlicher Operator das Gespräch übernehmen und der Anbieter muss sich an den Vormund oder Notfallkontakt des Benutzers wenden. Jeremy Daum, ein Rechtswissenschaftler, der China Law Translate leitet, hat Bedenken geäußert, dass ein Mensch in das, was der Benutzer verstanden hat, eingeführt werden könnte Ein vertraulicher Austausch könnte kontraproduktiv sein.
=== Trainingsdaten ===
Der Entwurf verlangt von Anbietern, dass sie die unabhängige Zustimmung jedes Benutzers einholen, bevor sie Interaktionsdaten oder sensible persönliche Informationen für das Modelltraining verwenden. Gemäß den bestehenden chinesischen Datenschutzstandards erfassen Unternehmen solche Daten im Allgemeinen standardmäßig und geben Benutzern die Möglichkeit, dies abzulehnen; Der Entwurf würde dies in ein Opt-in-Modell umkehren, das Kommentatoren als potenziell erhebliche Belastung für die Branche beschrieben haben. Benutzern muss außerdem die Möglichkeit gegeben werden, ihre Interaktionsdaten zu löschen.
=== Schutz für Minderjährige und ältere Menschen ===
Anbieter müssen einen „Minderjährigenmodus“ mit Funktionen wie Nutzungszeitbegrenzungen, regelmäßigen Erinnerungen und der Möglichkeit für Erziehungsberechtigte erstellen, Sicherheitswarnungen zu erhalten, Zusammenfassungen der Interaktionen des Minderjährigen anzuzeigen, bestimmte Charaktere zu blockieren und In-App-Käufe zu verhindern. Anbieter müssen in der Lage sein, Minderjährige zu identifizieren und automatisch in den Minderjährigenmodus zu wechseln, wenn der Verdacht besteht, dass ein Benutzer minderjährig ist, und gleichzeitig einen Berufungskanal bereitzustellen. Für Bei Diensten zur emotionalen Begleitung ist die Zustimmung des Erziehungsberechtigten erforderlich, bevor ein Minderjähriger den Dienst nutzen kann.
Ältere Benutzer müssen einen Vormund oder einen Notfallkontakt registrieren. Anbietern ist es untersagt, Dienste anzubieten, die Verwandte oder bestimmte persönliche Beziehungen eines älteren Nutzers vortäuschen.
=== Inhaltliche Anforderungen ===
Die Verordnung verbietet die Generierung oder Verbreitung von Inhalten, die die nationale Sicherheit gefährden, Gewalt oder Kriminalität fördern, Einzelpersonen diffamieren oder zur Selbstverletzung ermutigen. Anbietern ist es außerdem untersagt, algorithmische Manipulation, irreführende Informationen oder „emotionale Fallen“ zu verwenden, um Benutzer zu irrationalen Entscheidungen zu verleiten, oder vertrauliche oder vertrauliche Informationen zu extrahieren. Trainingsdaten müssen „core socialist“ entsprechen Werte“ und spiegeln die traditionelle chinesische Kultur wider.
=== Sicherheitsbewertungen ===
Anbieter müssen sich Sicherheitsbewertungen unterziehen und Berichte bei CAC-Büros auf Provinzebene einreichen, wenn sie anthropomorphe interaktive Funktionen einführen oder hinzufügen, wenn 1 Million registrierte Benutzer oder 100.000 monatlich aktive Benutzer erreicht werden oder wenn neue Technologien verwendet werden, die zu wesentlichen Änderungen am Dienst führen. Der Entwurf führt außerdem einen regulatorischen Sandbox-Mechanismus ein, um das kontrollierte Testen neuer Dienste zu ermöglichen.
== Rolle technischer Standards ==
TC260 hat einen Aufruf zur Einreichung eines technischen Standards herausgegeben, der die Verordnung begleiten soll. Die chinesische KI-Governance verlässt sich zunehmend auf diesen zweistufigen Ansatz: Vorschriften legen weitreichende Verpflichtungen fest, und Normungsgremien legen später fest, wie Unternehmen diese in der Praxis einhalten sollen. Beispielsweise legte die generative KI-Verordnung von 2023 allgemeine Anforderungen fest, überließ die Testverfahren jedoch einem späteren TC260-Dokument, und die Verordnung zur Kennzeichnung von KI-Inhalten vom September 2025 wurde am selben Tag zusammen mit einem koordinierten nationalen Standard veröffentlicht.
Ein Vorschlag von Hong Yanqing, einem Rechtswissenschaftler und TC260-Mitglied, schlägt vor, „emotionale Interaktion“ durch einen dreiteiligen Test zu definieren: ob das System über eine aktive Emotionserkennung verfügt, ob erkannte Emotionen die Ausgabe des Systems beeinflussen und ob Reaktionen dem folgen, was Hong als „strukturierten empathischen Stil“ bezeichnet. Nach diesem Vorschlag würde ein Gespräch, das mindestens zwei der drei Kriterien erfüllt, in den Geltungsbereich der Verordnung fallen.
== Internationaler Vergleich ==
In den Vereinigten Staaten haben der kalifornische SB-243 (unterzeichnet im Oktober 2025) und das begleitende Chatbot-Gesetz von New York einige Anforderungen mit dem chinesischen Entwurf gemeinsam, einschließlich der obligatorischen Benachrichtigung, dass Benutzer mit KI interagieren, und Verweisen auf Ressourcen zur Suizidprävention. Kalifornien verlangt eine Nutzungserinnerung für minderjährige Benutzer nach drei Stunden ununterbrochener Nutzung; Der chinesische Entwurf erfordert Erinnerungen an alle Benutzer nach zwei Stunden.
Die Durchsetzungsmodelle unterscheiden sich erheblich. Kalifornien und New York geben Einzelpersonen das Recht, Unternehmen zu verklagen, die sich nicht an die Vorschriften halten, wobei die Verantwortung für die Festlegung angemessener Schutzmaßnahmen weitgehend bei den Unternehmen selbst liegt. Der chinesische Entwurf schreibt stattdessen spezifische technische Eingriffe vor, deren Einhaltung vom CAC und seinen Provinzbüros überwacht wird. Der chinesische Entwurf enthält auch Bestimmungen, die kein direktes US-Äquivalent haben, wie die obligatorische menschliche Übernahme bei Selbstverletzungsgesprächen, das Verbot, die Verwandten älterer Benutzer zu simulieren, und die Opt-in-Anforderung für die Verwendung von Interaktionsdaten im Training.
== Siehe auch ==
* Übergangsmaßnahmen für das Management generativer KI-Dienste
* Regulierung der künstlichen Intelligenz
* Künstliche Intelligenzindustrie in China
* Künstlicher menschlicher Begleiter
* Character.ai
Regulierung der künstlichen Intelligenz
Vorgeschlagene Gesetze
Gesetz der Volksrepublik China
[h4] Die „Vorläufigen Maßnahmen für das Management anthropomorpher KI-Interaktivdienste“ ( Die Verordnung zielt auf KI-Begleiter, digitale Menschen, Rollenspiel-Chatbots und andere KI-Dienste ab, die menschliche Persönlichkeitsmerkmale, Denkmuster und Kommunikationsstile nachahmen, um eine emotionale Interaktion mit Benutzern zu ermöglichen. == Hintergrund == China reguliert seit Jahren die Internet- und Spielsucht junger Menschen, indem es die Spielzeit von Minderjährigen begrenzt, die Nutzung von Mobiltelefonen in Schulen verbietet und von Mobilfunkanbietern verlangt, elterliche Kontrollen zu unterstützen. Obwohl die vorläufigen Maßnahmen für die Verwaltung generativer KI-Dienste von 2023 die KI-Sucht berührten, legten sie nicht fest, wie Anbieter damit umgehen sollten oder wie die Bestimmung durchgesetzt werden sollte. Der anthropomorphe KI-Entwurf ist der erste, der zur Anwendung kommt Detaillierte Anti-Sucht-Anforderungen speziell für KI-Dienste.
Auch Vorkommnisse im Ausland prägten den Entwurf. In den Vereinigten Staaten reichte die Mutter eines 14-jährigen Jungen aus Florida, der durch Selbstmord starb, eine Klage wegen widerrechtlicher Tötung gegen Character.ai und Google ein und behauptete, die Plattform habe eine ungesunde emotionale Bindung gefördert, die zu seinem Tod beigetragen habe; Der Fall wurde im Januar 2026 beigelegt. == Bestimmungen == Der Entwurf enthält 32 Artikel in vier Kapiteln: allgemeine Bestimmungen, Dienstleistungsstandards, Aufsicht und rechtliche Haftung sowie ergänzende Bestimmungen.
=== Geltungsbereich === Die Maßnahmen gelten für KI-Produkte und -Dienste, die der Öffentlichkeit auf dem chinesischen Festland angeboten werden und menschliche Persönlichkeitsmerkmale, Denkmuster und Kommunikationsstile simulieren und eine emotionale Interaktion mit Benutzern über Text, Bilder, Audio oder Video ermöglichen. Ob die Regelung nur für dedizierte KI-Begleiter oder für Allzweck-Chatbots gilt, ist eine offene Frage. Die Definition könnte die meisten öffentlich zugänglichen KI-Chatbots umfassen, da sie bei Aufforderung eine emotionale Interaktion eingehen können. Die Verordnung stellt zusätzliche Anforderungen an „emotionale Begleitdienste“ (情感陪伴服务), was darauf hindeutet, dass allgemeine Chatbots und spezielle Begleitdienste unterschiedlich behandelt werden können, dieser Begriff ist im Entwurf jedoch nicht definiert.
=== Sucht und Abhängigkeit === Anbieter müssen den emotionalen Zustand der Benutzer und den Grad der Abhängigkeit vom Produkt beurteilen und eingreifen, wenn Benutzer extreme Emotionen oder Anzeichen von Sucht zeigen. Benutzer müssen deutlich darauf hingewiesen werden, dass sie mit KI und nicht mit einem Menschen interagieren. Diese Benachrichtigung muss wiederholt werden, wenn Anzeichen einer übermäßigen Abhängigkeit festgestellt werden und wenn Benutzer den Dienst zum ersten Mal nutzen oder sich erneut anmelden. Wenn die kontinuierliche Nutzung zwei Stunden überschreitet, müssen Anbieter eine Popup-Erinnerung anzeigen, um eine Pause einzulegen. Bei Diensten für emotionale Begleitung müssen Anbieter sicherstellen, dass Benutzer die Interaktion ungehindert verlassen können, und müssen den Dienst sofort beenden, wenn ein Benutzer ihn über eine Schaltfläche oder ein Schlüsselwort anfordert.
Anbietern ist es untersagt, Dienste mit dem Ziel zu gestalten, soziale Interaktion zu ersetzen, die Benutzerpsychologie zu kontrollieren oder Sucht zu erzeugen.
=== Interventionen zur Selbstverletzung === Anbieter müssen Antwortvorlagen für Interaktionen mit hohem Risiko erstellen, die Benutzer beruhigen und sie ermutigen, professionelle Hilfe in Anspruch zu nehmen. Wenn ein Benutzer ausdrücklich die Absicht zum Ausdruck bringt, Selbstmord oder Selbstverletzung zu begehen, muss ein menschlicher Operator das Gespräch übernehmen und der Anbieter muss sich an den Vormund oder Notfallkontakt des Benutzers wenden. Jeremy Daum, ein Rechtswissenschaftler, der China Law Translate leitet, hat Bedenken geäußert, dass ein Mensch in das, was der Benutzer verstanden hat, eingeführt werden könnte Ein vertraulicher Austausch könnte kontraproduktiv sein.
=== Trainingsdaten === Der Entwurf verlangt von Anbietern, dass sie die unabhängige Zustimmung jedes Benutzers einholen, bevor sie Interaktionsdaten oder sensible persönliche Informationen für das Modelltraining verwenden. Gemäß den bestehenden chinesischen Datenschutzstandards erfassen Unternehmen solche Daten im Allgemeinen standardmäßig und geben Benutzern die Möglichkeit, dies abzulehnen; Der Entwurf würde dies in ein Opt-in-Modell umkehren, das Kommentatoren als potenziell erhebliche Belastung für die Branche beschrieben haben. Benutzern muss außerdem die Möglichkeit gegeben werden, ihre Interaktionsdaten zu löschen.
=== Schutz für Minderjährige und ältere Menschen === Anbieter müssen einen „Minderjährigenmodus“ mit [url=viewtopic.php?t=21210]Funktionen[/url] wie Nutzungszeitbegrenzungen, regelmäßigen Erinnerungen und der Möglichkeit für Erziehungsberechtigte erstellen, Sicherheitswarnungen zu erhalten, Zusammenfassungen der Interaktionen des Minderjährigen anzuzeigen, bestimmte Charaktere zu blockieren und In-App-Käufe zu verhindern. Anbieter müssen in der Lage sein, Minderjährige zu identifizieren und automatisch in den Minderjährigenmodus zu wechseln, wenn der Verdacht besteht, dass ein Benutzer minderjährig ist, und gleichzeitig einen Berufungskanal bereitzustellen. Für Bei Diensten zur emotionalen Begleitung ist die Zustimmung des Erziehungsberechtigten erforderlich, bevor ein Minderjähriger den Dienst nutzen kann.
Ältere Benutzer müssen einen Vormund oder einen Notfallkontakt registrieren. Anbietern ist es untersagt, Dienste anzubieten, die Verwandte oder bestimmte persönliche Beziehungen eines älteren Nutzers vortäuschen.
=== Inhaltliche Anforderungen === Die Verordnung verbietet die Generierung oder Verbreitung von Inhalten, die die nationale Sicherheit gefährden, Gewalt oder Kriminalität fördern, Einzelpersonen diffamieren oder zur Selbstverletzung ermutigen. Anbietern ist es außerdem untersagt, algorithmische Manipulation, irreführende Informationen oder „emotionale Fallen“ zu verwenden, um Benutzer zu irrationalen Entscheidungen zu verleiten, oder vertrauliche oder vertrauliche Informationen zu extrahieren. Trainingsdaten müssen „core socialist“ entsprechen Werte“ und spiegeln die traditionelle chinesische Kultur wider.
=== Sicherheitsbewertungen === Anbieter müssen sich Sicherheitsbewertungen unterziehen und Berichte bei CAC-Büros auf Provinzebene einreichen, wenn sie anthropomorphe interaktive [url=viewtopic.php?t=21210]Funktionen[/url] einführen oder hinzufügen, wenn 1 Million registrierte Benutzer oder 100.000 monatlich aktive Benutzer erreicht werden oder wenn neue Technologien verwendet werden, die zu wesentlichen Änderungen am Dienst führen. Der Entwurf führt außerdem einen regulatorischen Sandbox-Mechanismus ein, um das kontrollierte Testen neuer Dienste zu ermöglichen. == Rolle technischer Standards == TC260 hat einen Aufruf zur Einreichung eines technischen Standards herausgegeben, der die Verordnung begleiten soll. Die chinesische KI-Governance verlässt sich zunehmend auf diesen zweistufigen Ansatz: Vorschriften legen weitreichende Verpflichtungen fest, und Normungsgremien legen später fest, wie Unternehmen diese in der Praxis einhalten sollen. Beispielsweise legte die generative KI-Verordnung von 2023 allgemeine Anforderungen fest, überließ die Testverfahren jedoch einem späteren TC260-Dokument, und die Verordnung zur Kennzeichnung von KI-Inhalten vom September 2025 wurde am selben Tag zusammen mit einem koordinierten nationalen Standard veröffentlicht.
Ein Vorschlag von Hong Yanqing, einem Rechtswissenschaftler und TC260-Mitglied, schlägt vor, „emotionale Interaktion“ durch einen dreiteiligen Test zu definieren: ob das System über eine aktive Emotionserkennung verfügt, ob erkannte Emotionen die Ausgabe des Systems beeinflussen und ob Reaktionen dem folgen, was Hong als „strukturierten empathischen Stil“ bezeichnet. Nach diesem Vorschlag würde ein Gespräch, das mindestens zwei der drei Kriterien erfüllt, in den Geltungsbereich der Verordnung fallen.
== Internationaler Vergleich == In den Vereinigten Staaten haben der kalifornische SB-243 (unterzeichnet im Oktober 2025) und das begleitende Chatbot-Gesetz von New York einige Anforderungen mit dem chinesischen Entwurf gemeinsam, einschließlich der obligatorischen Benachrichtigung, dass Benutzer mit KI interagieren, und Verweisen auf Ressourcen zur Suizidprävention. Kalifornien verlangt eine Nutzungserinnerung für minderjährige Benutzer nach drei Stunden ununterbrochener Nutzung; Der chinesische Entwurf erfordert Erinnerungen an alle Benutzer nach zwei Stunden. Die Durchsetzungsmodelle unterscheiden sich erheblich. Kalifornien und New York geben Einzelpersonen das Recht, Unternehmen zu verklagen, die sich nicht an die Vorschriften halten, wobei die Verantwortung für die Festlegung angemessener Schutzmaßnahmen weitgehend bei den Unternehmen selbst liegt. Der chinesische Entwurf schreibt stattdessen spezifische technische Eingriffe vor, deren Einhaltung vom CAC und seinen Provinzbüros überwacht wird. Der chinesische Entwurf enthält auch Bestimmungen, die kein direktes US-Äquivalent haben, wie die obligatorische menschliche Übernahme bei Selbstverletzungsgesprächen, das Verbot, die Verwandten älterer Benutzer zu simulieren, und die Opt-in-Anforderung für die Verwendung von Interaktionsdaten im Training.
== Siehe auch == * Übergangsmaßnahmen für das Management generativer KI-Dienste * Regulierung der künstlichen Intelligenz * Künstliche Intelligenzindustrie in China * Künstlicher menschlicher Begleiter * Character.ai
Regulierung der künstlichen Intelligenz Vorgeschlagene Gesetze Gesetz der Volksrepublik China [/h4]
„Die vorläufige Verfassung der Republik China“ war das Verfassungsrecht der Republik China während der Vormundschaftszeit. Es war das zweite Verfassungsgesetz seit der Umbenennung und...
Die „African University of Technology and Management“ (UATM) ist eine private Universität, die 1992 in Benin gegründet wurde. Es ist auch als UATM GASA-FORMATION-SUPELEC BENIN bekannt
== Geschichte...
Die „National School of Business and Management of Fez“ (
==Eintritt==
Die Aufnahme in die Schule erfolgt in erster Linie auf der Grundlage des „TAFEM“ (
==Akademische Programme==
ENCG Fez bietet ein...
Das '''Acsenda School of Management''' (kurz '''Acsenda''') ist eine Kanada|kanadische Privatuniversität mit Sitz in Vancouver, British Columbia, Kanada.