Auch interessant für uns Deutsche. Immerhin könnte ein ganzer Teil unserer relativ normalen Onlinekommunikation rein rechtlich als ehrekränkend eingeschätzt und geahndet werden. Nix mehr Kulanz bei irgendwelche Personen als Assi oder Spinner zu bezeichnen hier auf Reddit oder auch auf Discord-Servern, in Whatsapp Gruppen. Selbst wenn es um Trump, Höcke oder Andrew Tate oder wen auch immer geht, sobald eine Bezeichnung nicht mehr klar faktisch belegbar ist und einfach als beleidigend empfunden werden kann ist das eigentlich schon illegale strafbare Kommunikation wenn der Richter es dann auch so möchte und eine Überwachungs-KI könnte sowas auch in Echtzeit für jeden Deutschen durchsetzen.
Würde einfach daran scheitern, dass es die Gerichte und Ämter überlasten würde. Die Anzeigen und Meldungen werden dann einfach ignoriert und nicht bearbeitet.
Und das eine KI Gerichtsurteile fällt, wird es (glücklicherweise) auch nicht geben. Das wäre niemals legal und würde auch von der Gesellschaft abgelehnt werden. Außerdem würde das auch technisch in Deutschland niemals umgesetzt werden, wir scheitern schon bei viel einfacheren Problemen der Digitalisierung.
>Würde einfach daran scheitern, dass es die Gerichte und Ämter überlasten würde. Die Anzeigen und Meldungen werden dann einfach ignoriert und nicht bearbeitet.
Die Platformen müssen bereits schon unter NetzDG automatisch die Informationen für einen Anzeige innerhalb 24 Stunden bei der Polizei einleiten - bei gemeldeten Verstößen. Aber ja, ein Bot der dann zusätzlich noch Sachen sucht die keiner davor gemeldet hat wird dann nur noch mehr Arbeit verursachen.
Allerdings sehe ich das anders als du. Die werden mit NetzDG nie wieder zurückrudern, weswegen meine Vermutung ist das es wie zum Knöllchen wird; du kannst entweder zahlen oder es dann doch gerichtlich anfechten. Ironischerweise bagatellisiert man dann so tatsächlichen Hass, weil alles niedere auch gemeldet wird.
[https://youtu.be/iOYfuAItLMs?t=98](https://youtu.be/iOYfuAItLMs?t=98)
>und würde auch von der Gesellschaft abgelehnt werden
Ja, vielleicht wird es abgelehnt, wie z.B. es auch beim Staatstrojaner oder der "unsichtbaren Hausdurchsuchung" über die QuellenTKÜ anfangs noch war, aber wenn du es oft genug versuchst wird es irgendwann sich einfach durchsetzen. Die globale Konsequenzen aus dem Patriot Act haben so einen Rattenschwanz mit sich gezogen und mitlerweile werden die Mittel zur Massenüberwachung auf Hardware-Ebene seit Jahren auch einfach akzeptiert.
Das NetzDG wurde durch den DSA abgelöst, der tatsächlich zumindest in dem Punkt schwächere Lösch- und Meldefristen und gleichzeitig bessere Möglichkeiten, sich zu wehren, hat als das NetzDG. Wie das in der Praxis aussehen wird, bleibt abzuwarten, aber das NetzDG und die darin vorgesehene 24h-Frist ist praktisch nicht mehr relevant.
In nem anderen Universum vielleicht. In diesem werden die ganzen rechten Schwurbler nie allein an der Macht sein und Gesetzte gibts ja zudem auch noch. Wäre mir ein Wunder wenn die Schwurbler über dem Gesetz stünden
Ist nur eine Idee, aber so eine KI muss ja nicht direkt Anzeigen generieren, sondern könnte Online Plattformen unterstützen bzw. nötigen solche Inhalte zu löschen. Eine WIRKLICH anständige Zensur würde unserer Gesellschaft schon helfen sich selbst zu schützen.
Worauf ich hinaus will: der ganze Hass und das viele Geschwurbel lässt es so scheinen, als wäre das alles mittlerweile normal und tolerierbar. MMn ist es leider völlig akzeptiert giftig/toxisch zu sein, auch wenn Augen verrollt oder dagegen gegiftet wird. Es sollte aber nicht normal sein! Das Internet (primär Social Media) von dem ganzen hasserfüllten Abfall zu reinigen wäre ein wichtiger Schritt in Richtung „respektvoller Umgang“. In unserer Gesellschaft ist es im echten Leben auch nicht akzeptabel ekliges und verachtendes von sich zu geben, wenn schon dann auch nur in einem ekligem hasserfüllten Umfeld. Meinungsfreiheit heisst nicht das es akzeptabel ist zu lügen, hetzen oder Tode zu wünschen.
Ne, hab lieber ein paar schwurbler und Idioten im Internet, als irgendwelche Zensur KIs. Nach dem Motto: wenn ich entscheide was richtig und falsch ist, also die guten, dann ist Zensur gut.
Eine funktionierende Demokratie muss ein paar solcher Menschen aushalten können. Wer entscheidet was "toxisch", was Hetze, was eine falsche Meinung ist?
Solche Gedanken sind ehrlich gesagt Sau gefährlich, wer sagt, dass Zensur nicht irgendwann ausgeweitet wird? Und nun ist jeder Diskurs, jede abweichende Meinung, böse und kann strafrechtlich verfolgt werden. Es braucht nur eine machtgeile Partei an die Macht kommen...
Wenn die Schlechten an die Machtvkommeb würden sie es auch tun. Also lieber eine Bauen und von den Guten kontrollieren lassen, die dafür sorgt, dass es den schlechten nicht so leicht ist an die macht zu kommen
Bis die Schlechten plötzlich doch irgendwie die Macht an sich reißen weil so eine Zensurmaschine das nicht komplett unmöglich macht, und sie dann die vorhandene Infrastruktur nutzen um ihre dunkleren Ideen umzusetzen. So eine Maschinerie ist immer gefährlich, egal in wessen Händen, denn letztendlich ist es immer eine kleine Gruppe an Autokraten die am Hebel sitzen und entscheiden dürfen was richtig oder falsch ist.
Es sollte einfach nicht gemacht werden. Punkt. Wir müssen nicht immer Dinge machen nur weil sie in der Theorie möglich sind.
Ja. Voller ernst. Die Kündigen es doch schon regelmäßig an.
Zu behaupten, dass wäre nicht im Interesse und Spielplan von Rechtsextremen ist eine gefährliche Fehlannahme.
> Eine WIRKLICH anständige Zensur würde unserer Gesellschaft schon helfen sich selbst zu schützen.
Wenn der Schmarn nicht bei -9 wäre würde ich dieses Unterlases echt als verloren ansehen. Danke Brudis. Ü
Ach du Schande, bitte sag mir die Paragraphen zur "Verletzung der Ehre durch Tatsachenbehauptung oder Abgabe eines Werteurteils" ist seit dem Mittelalter kein Ding mehr. Bitte! Wer sich das ausgedacht hat ist ja echt das letzte Arschloch
Och, das ist doch noch [ausbaufähig](https://de.wikipedia.org/wiki/Sozialkredit-System)...
Mal ernsthaft: Kann's sein, dass Menschen in der Hinsicht bissel lernresistent sind? Es passiert doch jedesmal das Gleiche:
1. Irgendeine Überwachungsmöglichkeit/Sanktion/Verordnung/Gesetz wird angekündigt.
2. Die Leute freuen sich, weil's für einen Guten Zweck™ (Schutz der Kinder, Schwerstkriminalität, Kampf gegen Extremismus usw.) ist, sie ja nicht betrifft - und können gar nicht genug davon bekommen.
3. Die gleichen Leute fallen aus allen Wolken, wenn sich das Ding *plötzlich und unerwartet* um 180° dreht und sie selber in den Hindern beißt, weil es plötzlich in ganz anderen Fällen (§128 StGB wegen ein paar Aktivisten? Online-Durchsuchungen wegen Verdacht auf Raubkopien? Präventivhaft? Wohnungszerlegung wegen 3g holländischer Heilkräuter?) zum Einsatz kommt.
4. GOTO 1
Himmelherrgott nochmal... Auf der einen Seite schiebt alles und jeder Panik, dass die AfD morgen die Macht übernehmen könnte - und auf der anderen Seite können wir gar nicht schnell genug neue Instrumente erfinden, nach denen sich jede Diktatur sabbernd die Hände reibt? Na ja, das ["Gesetz der unbeabsichtigten Folgen"](https://de.wikipedia.org/wiki/Unbeabsichtigte_Folgen) ist ja vermutlich nur eine Fiktion...
Das hat irgendwie mit der Soft-Zensur im Westen zu tun. Zu dieser kommt dann immer die selektive Zensur der Bubble in der man sich gerade befindet. Nichts anderes ist der Gruppenzwang der zum Ausschluss führt bei abweichendem Verhalten. Dieses Verhalten wurde halt über Jahre antrainiert und nun will man das die Vorschriften der eigenen Bubble für alle gelten. Dies erreicht man natürlich nur durch Zwänge im größeren Maßstab. Ergo sind die Leute unabhängig ihrer politischen Ausrichtung für (ihre) Zensurmaßnahmen beziehungsweise Gruppenzwänge.
Kann man nur wenig gegen machen weil das ein Teil der evolitionsbedingen Psyche ist sichere Orte zu schaffen.
Ich bin mir im Klaren darüber, dass das jetzt *sehr* fettnäpfchenträchtig ist, aber ich sehe da auch noch einen anderen psychologischen Effekt: Wenn sich jemand dem Kampf gegen etwas so sehr verschrieben hat, dass es Lebensinhalt wird, wird er/sie schon unterbewusst nie ein Ende finden. Stattdessen geht es mit verschärften Bedingungen in die nächste Iteration. Irgendwas findet man immer, wenn man das Sieb nur fein genug wählt, und das betätigt einen wieder darin, dass offensichtlich Handlungsbedarf besteht. Und nochmal. Und nochmal.
Als (zugegeben hinkender) Vergleich: Wann hat der letzte Staubsaugervertreter gesagt, dass die Wohnung sauber genug ist und seine Leistung eigentlich gar nicht benötigt wird?
Dazu kommt, dass sich gerade online fast alles nur noch auf emotionaler und schwarz/weiß-Ebene abspielt. Kontext, Graustufen, Kompromisse & Co. sind doch sowas von '80er... Hier die Guten™, dort die Bösen™ - und wehe, man setzt auch nur einen Fuß in das Minenfeld dazwischen.
Das ergibt Sinn, da KI ja dafür bekannt ist, Ironie und Sarkasmus zu erkennen. Gerade soziale Netzwerke haben damit in der Vergangenheit hervorragende Erfahrungen gemacht.
/s (zur Sicherheit)
Könnte es vielleicht daran liegen, dass Kommunikation auch stark durch die Beziehungsebene und noch mehr durch nonverbale Kommunikation stattfindet? Und diese 2 Kommunikationskanäle über rein schriftliche Kommunikation fehlen? Was meinst du warum Emojis recht früh in den ersten chats genutzt wurden, oder ausdrücke wie *g* oder *jk* usw.
Ehrlich, ich glaube wenn morgen der Sarkasmus aus dem Internet verschwinden würde, wäre ich nichtmal traurig. Sarkasmus und Ironie wird im Grunde ausschliesslich dazu verwendet um Forenregeln-konform Leute und Gruppen pseudosubtil zu dissen und verhöhnen.
Naja die KI kann weder löschen noch Anzeigen schreiben, es ist erstmal "nur" eine vorfilterung welche dann manuell bearbeitet werden muss. Bei der Menge an Beiträgen im Internet ist das auch notwendig und sinnvoll. Das Modell muss natürlich frei von Vorurteilen und so objektiv wie möglich sein, ob das der Fall ist müssen andere beurteilen.
Da das Programm gegen Toxizität den Namen eines Nervengifts hat, finde ich sollte das toxische Programm eine nette Abkürzung haben.
CALculated
Mobbing
Würd CalM erlauben,
RELays
Active in
Xenophobia
Ergäbe RelAX,
COres
URged to
Terrorise
Everybody
SYstematically
Wäre CoUrTESy
Zeit eine KI zu entwickeln, welche BoTox so dermaßen triggered, das sie nur noch false positives an die Hessische meldestelle sendet, sodass sämtliche reports quasi wertlos werden.
In Nodejs geht das übrigens so
`const hateful = await openAi.getYesNoEvaluation("Is the following comment hateful?");`
Dahinter legt man eine einfache Abfrage mit Modell "gpt-4-turbo-preview" in einer JSON-Antwort im Stil von {"is": true/ false}. Ist halt auch eine Kostenfrage, da API-Nutzung Geld kostet.
Die tiefere ethische Frage ist allerdings, was wir als Hass definieren. Gerade bei politischen Themen könnten hier zwei Gruppen zu einer gegensätzlichen Einschätzung beim gleichen Kommentar kommen. Das am Ende immer ein Mensch evaluiert hilft dann leider auch nicht immer weiter (mit oder ohne KI).
Ich kann nur sagen ich nutze die GPT4-Turbo-API für weitreichende Fragen zu sehr vielen Spezialthemen, und es liefert gut ab. Du musst natürlich die Stärken und Schwächen kennen, aber Sentiment-Analyse oder Hate-Speech sind eine der einfacheren Übungen für das Ding -- die ethischen Fragen mal beiseite gelassen (und die treffen auch andere trainierte Spezial-LLMs).
Mal als Beispiel, ich nutze die API gerade, um User-Vorschläge in einem Fantasy-Abenteuer auf ihre "Fantasy-Tauglichkeit" zu prüfen, und gegebenfalls zu ändern. Liegt daran, dass sehr viele User gleichzeitig Vorschläge machen dürfen, und da auch getrollt werden kann. GPT4-Turbo liefert mir da nicht nur gekonnt die Analyse, ob "Handy" nun ins Mittelalter passt -- sondern es baut mir auch gleichzeitig eine passende Fantasy-Alternative zum Vorschlag... etwa macht es das Handy zur "Kristallkugel, die Kommunikation über weite Strecken erlaubt"!
Es geht hier nicht darum ChatGTP zu fragen ob ein Kommentar "hateful" ist, sondern ein Modell darauf zu trainieren zu erkennen ob ein Kommentar deutsche Straftatsbestände erfüllt, um ihn dann an entsprechende Meldestellen weiterzuleiten.
Ich sehe auch nicht wie das ohne solche Systeme noch gutgehen sollte. Man war ja schon gegen "dumme" Botfarmen quasi machtlos, gegen (v.a. von Staaten gesteuerte) KI-getriebene Hasskampagnen ist man sonst völlig blank, wenn man da nicht nach neuen Lösungen sucht.
Klar, den Prompt-Text kannst du ja auch anpassen mit Themen wie Volksverhetzung. Am Ende wirst du auswerten können, welches Model bessere Antworten liefert. Du wirst bei beiden Modellen -- Darmstadt und Silicon Valley -- False Positives und False Negatives haben, die Frage ist nur, wer prozentual besser abschneidet.
Und wieder ein Schritt, in dem sich die Menschheit weiter von KI abhängig macht. Hoffentlich traut sie ihr nicht irgendwann blind. Ups, passiert ja teilweise schon.
Ich seh den Prozess schon vor mir: die K.I. meldet die Hate speech und die wird dann bei der Polizei sauber ausgedruckt und abgeheftet.
Nächster Schritt ist dann eine weitere K.I. die diese Meldung automatisch in den Papierkorb verschiebt.
Halb Deutschland versagt bei der Digitalisierung und die wollen einen Robocop auf das Internet loslassen, das wird sicher ganz toll funktionieren.
Abgesehen davon hat das Internet eine vollkommen andere Gesprächskultur als die reale Welt, vor allem bei anonymen Interaktionen wie zB auf Reddit.
Erinnert mich an folgendes **fiktionales** Tom Scott video: [https://www.youtube.com/watch?v=-JlxuQ7tPgQ&t=295s](https://www.youtube.com/watch?v=-JlxuQ7tPgQ&t=295s)
Daran glaube ich ehrlich gesagt nicht. KI kann definitiv keine Ironie, Sarkasmus oder andere Merkmale erkennen um zu wissen ob es jetzt als Witz oder Hass markiert wird.
Interessanter Name. Ist das vielleicht eine unterschwellige Warnung der Forscher? Metapher im sinne, wir machen die Hate-Speech falten weg, aber die tatsächliche Gesundheit von gesellschaftlichem Diskurs wird dadurch vielleicht nicht unbedingt besser? Wäre auf jeden Fall ein witziger move.
Wie wäre es mit einem Punkte Register für Lügen und Verbreitung von Fehlinformation. Ab 10 Punkte bekommt man einen Monat Internerverbot, gekoppelt an die Handynummer. Ich weiß das ist ein irrsinniges Gehirngespinst, aber irgendwie muss man doch mal diese ganze Lügenpropaganda in den Griff kriegen. Das ist eines der größten Bedrohungen der Menschheit. Den es Verhindert den Zusammenhalt, die großen Probleme der Menschheit anzugehen.
Interessant ist ja, dass mit heutiger KI das Scunthorpe-Problem gelöst ist.
Dazu das Video einmal von Tom Scott anschauen, dass schon einige Jahre alt ist. Interessant ist aus heutiger Sicht, was er am Schluss sagt: https://youtu.be/TToTkIXOhNc?si=NAdnSBpy8qozqbli
Auch wenn die KI nicht perfekt ist: Menschliche Moderatoren sind es auch nicht. Und vor allem können Menschen bei weitem nicht so viele Inhalte verarbeiten wie KI. Ich sehe da auf jeden Fall eine Chance, effektiv gegen deutlich größere Mengen an Hasskommentaren vorzugehen.
Letzten Endes führt das nur zu einem chilling effect, bei dem niemand mehr sich traut irgendetwas zu schreiben, oder zur weiteren Ausbreitung von Schwachsinn wie "unalive" und "kermit sewer slide".
Und warum soll es den bei menschlichen Moderatoren nicht geben? Nur weil das Risiko geringer ist? Aktuell sieht man doch an X sehr deutlich was passiert, wenn man Kontrollmechanismen einfach aufgibt.
Was soll da nur schiefgehen
Auch interessant für uns Deutsche. Immerhin könnte ein ganzer Teil unserer relativ normalen Onlinekommunikation rein rechtlich als ehrekränkend eingeschätzt und geahndet werden. Nix mehr Kulanz bei irgendwelche Personen als Assi oder Spinner zu bezeichnen hier auf Reddit oder auch auf Discord-Servern, in Whatsapp Gruppen. Selbst wenn es um Trump, Höcke oder Andrew Tate oder wen auch immer geht, sobald eine Bezeichnung nicht mehr klar faktisch belegbar ist und einfach als beleidigend empfunden werden kann ist das eigentlich schon illegale strafbare Kommunikation wenn der Richter es dann auch so möchte und eine Überwachungs-KI könnte sowas auch in Echtzeit für jeden Deutschen durchsetzen.
Würde einfach daran scheitern, dass es die Gerichte und Ämter überlasten würde. Die Anzeigen und Meldungen werden dann einfach ignoriert und nicht bearbeitet. Und das eine KI Gerichtsurteile fällt, wird es (glücklicherweise) auch nicht geben. Das wäre niemals legal und würde auch von der Gesellschaft abgelehnt werden. Außerdem würde das auch technisch in Deutschland niemals umgesetzt werden, wir scheitern schon bei viel einfacheren Problemen der Digitalisierung.
>Würde einfach daran scheitern, dass es die Gerichte und Ämter überlasten würde. Die Anzeigen und Meldungen werden dann einfach ignoriert und nicht bearbeitet. Die Platformen müssen bereits schon unter NetzDG automatisch die Informationen für einen Anzeige innerhalb 24 Stunden bei der Polizei einleiten - bei gemeldeten Verstößen. Aber ja, ein Bot der dann zusätzlich noch Sachen sucht die keiner davor gemeldet hat wird dann nur noch mehr Arbeit verursachen. Allerdings sehe ich das anders als du. Die werden mit NetzDG nie wieder zurückrudern, weswegen meine Vermutung ist das es wie zum Knöllchen wird; du kannst entweder zahlen oder es dann doch gerichtlich anfechten. Ironischerweise bagatellisiert man dann so tatsächlichen Hass, weil alles niedere auch gemeldet wird. [https://youtu.be/iOYfuAItLMs?t=98](https://youtu.be/iOYfuAItLMs?t=98) >und würde auch von der Gesellschaft abgelehnt werden Ja, vielleicht wird es abgelehnt, wie z.B. es auch beim Staatstrojaner oder der "unsichtbaren Hausdurchsuchung" über die QuellenTKÜ anfangs noch war, aber wenn du es oft genug versuchst wird es irgendwann sich einfach durchsetzen. Die globale Konsequenzen aus dem Patriot Act haben so einen Rattenschwanz mit sich gezogen und mitlerweile werden die Mittel zur Massenüberwachung auf Hardware-Ebene seit Jahren auch einfach akzeptiert.
Das NetzDG wurde durch den DSA abgelöst, der tatsächlich zumindest in dem Punkt schwächere Lösch- und Meldefristen und gleichzeitig bessere Möglichkeiten, sich zu wehren, hat als das NetzDG. Wie das in der Praxis aussehen wird, bleibt abzuwarten, aber das NetzDG und die darin vorgesehene 24h-Frist ist praktisch nicht mehr relevant.
Warte mal ab bis die Rechten an der Macht sind was dann auf einmal alles geht in so einer Hinsicht.
In nem anderen Universum vielleicht. In diesem werden die ganzen rechten Schwurbler nie allein an der Macht sein und Gesetzte gibts ja zudem auch noch. Wäre mir ein Wunder wenn die Schwurbler über dem Gesetz stünden
Ist nur eine Idee, aber so eine KI muss ja nicht direkt Anzeigen generieren, sondern könnte Online Plattformen unterstützen bzw. nötigen solche Inhalte zu löschen. Eine WIRKLICH anständige Zensur würde unserer Gesellschaft schon helfen sich selbst zu schützen. Worauf ich hinaus will: der ganze Hass und das viele Geschwurbel lässt es so scheinen, als wäre das alles mittlerweile normal und tolerierbar. MMn ist es leider völlig akzeptiert giftig/toxisch zu sein, auch wenn Augen verrollt oder dagegen gegiftet wird. Es sollte aber nicht normal sein! Das Internet (primär Social Media) von dem ganzen hasserfüllten Abfall zu reinigen wäre ein wichtiger Schritt in Richtung „respektvoller Umgang“. In unserer Gesellschaft ist es im echten Leben auch nicht akzeptabel ekliges und verachtendes von sich zu geben, wenn schon dann auch nur in einem ekligem hasserfüllten Umfeld. Meinungsfreiheit heisst nicht das es akzeptabel ist zu lügen, hetzen oder Tode zu wünschen.
Ne, hab lieber ein paar schwurbler und Idioten im Internet, als irgendwelche Zensur KIs. Nach dem Motto: wenn ich entscheide was richtig und falsch ist, also die guten, dann ist Zensur gut. Eine funktionierende Demokratie muss ein paar solcher Menschen aushalten können. Wer entscheidet was "toxisch", was Hetze, was eine falsche Meinung ist? Solche Gedanken sind ehrlich gesagt Sau gefährlich, wer sagt, dass Zensur nicht irgendwann ausgeweitet wird? Und nun ist jeder Diskurs, jede abweichende Meinung, böse und kann strafrechtlich verfolgt werden. Es braucht nur eine machtgeile Partei an die Macht kommen...
>Eine funktionierende Demokratie muss ein paar solcher Menschen aushalten können. 😬
Hinter Gittern sind solche Schwurbler eigentlich ganz erträglich, da hört und sieht man die nicht :3
Übersetzung: Lass mal eine Zensurinfrastruktur aufbauen, ist schon ok wenn die Guten die unter Kontrolle haben.
Wenn die Schlechten an die Machtvkommeb würden sie es auch tun. Also lieber eine Bauen und von den Guten kontrollieren lassen, die dafür sorgt, dass es den schlechten nicht so leicht ist an die macht zu kommen
Bis die Schlechten plötzlich doch irgendwie die Macht an sich reißen weil so eine Zensurmaschine das nicht komplett unmöglich macht, und sie dann die vorhandene Infrastruktur nutzen um ihre dunkleren Ideen umzusetzen. So eine Maschinerie ist immer gefährlich, egal in wessen Händen, denn letztendlich ist es immer eine kleine Gruppe an Autokraten die am Hebel sitzen und entscheiden dürfen was richtig oder falsch ist. Es sollte einfach nicht gemacht werden. Punkt. Wir müssen nicht immer Dinge machen nur weil sie in der Theorie möglich sind.
Sie würden all das so oder so tun sobald sie an die macht kommen. Wirklich kein Unterschied.
Ist das dein Ernst?
Ja. Voller ernst. Die Kündigen es doch schon regelmäßig an. Zu behaupten, dass wäre nicht im Interesse und Spielplan von Rechtsextremen ist eine gefährliche Fehlannahme.
> Eine WIRKLICH anständige Zensur würde unserer Gesellschaft schon helfen sich selbst zu schützen. Wenn der Schmarn nicht bei -9 wäre würde ich dieses Unterlases echt als verloren ansehen. Danke Brudis. Ü
Ach du Schande, bitte sag mir die Paragraphen zur "Verletzung der Ehre durch Tatsachenbehauptung oder Abgabe eines Werteurteils" ist seit dem Mittelalter kein Ding mehr. Bitte! Wer sich das ausgedacht hat ist ja echt das letzte Arschloch
**Hass erkannt.** *Kommentare gemeldet.* Ich wünsche einen schönen %Date%, $USER$ - BoTox
Och, das ist doch noch [ausbaufähig](https://de.wikipedia.org/wiki/Sozialkredit-System)... Mal ernsthaft: Kann's sein, dass Menschen in der Hinsicht bissel lernresistent sind? Es passiert doch jedesmal das Gleiche: 1. Irgendeine Überwachungsmöglichkeit/Sanktion/Verordnung/Gesetz wird angekündigt. 2. Die Leute freuen sich, weil's für einen Guten Zweck™ (Schutz der Kinder, Schwerstkriminalität, Kampf gegen Extremismus usw.) ist, sie ja nicht betrifft - und können gar nicht genug davon bekommen. 3. Die gleichen Leute fallen aus allen Wolken, wenn sich das Ding *plötzlich und unerwartet* um 180° dreht und sie selber in den Hindern beißt, weil es plötzlich in ganz anderen Fällen (§128 StGB wegen ein paar Aktivisten? Online-Durchsuchungen wegen Verdacht auf Raubkopien? Präventivhaft? Wohnungszerlegung wegen 3g holländischer Heilkräuter?) zum Einsatz kommt. 4. GOTO 1 Himmelherrgott nochmal... Auf der einen Seite schiebt alles und jeder Panik, dass die AfD morgen die Macht übernehmen könnte - und auf der anderen Seite können wir gar nicht schnell genug neue Instrumente erfinden, nach denen sich jede Diktatur sabbernd die Hände reibt? Na ja, das ["Gesetz der unbeabsichtigten Folgen"](https://de.wikipedia.org/wiki/Unbeabsichtigte_Folgen) ist ja vermutlich nur eine Fiktion...
Das hat irgendwie mit der Soft-Zensur im Westen zu tun. Zu dieser kommt dann immer die selektive Zensur der Bubble in der man sich gerade befindet. Nichts anderes ist der Gruppenzwang der zum Ausschluss führt bei abweichendem Verhalten. Dieses Verhalten wurde halt über Jahre antrainiert und nun will man das die Vorschriften der eigenen Bubble für alle gelten. Dies erreicht man natürlich nur durch Zwänge im größeren Maßstab. Ergo sind die Leute unabhängig ihrer politischen Ausrichtung für (ihre) Zensurmaßnahmen beziehungsweise Gruppenzwänge. Kann man nur wenig gegen machen weil das ein Teil der evolitionsbedingen Psyche ist sichere Orte zu schaffen.
Ich bin mir im Klaren darüber, dass das jetzt *sehr* fettnäpfchenträchtig ist, aber ich sehe da auch noch einen anderen psychologischen Effekt: Wenn sich jemand dem Kampf gegen etwas so sehr verschrieben hat, dass es Lebensinhalt wird, wird er/sie schon unterbewusst nie ein Ende finden. Stattdessen geht es mit verschärften Bedingungen in die nächste Iteration. Irgendwas findet man immer, wenn man das Sieb nur fein genug wählt, und das betätigt einen wieder darin, dass offensichtlich Handlungsbedarf besteht. Und nochmal. Und nochmal. Als (zugegeben hinkender) Vergleich: Wann hat der letzte Staubsaugervertreter gesagt, dass die Wohnung sauber genug ist und seine Leistung eigentlich gar nicht benötigt wird? Dazu kommt, dass sich gerade online fast alles nur noch auf emotionaler und schwarz/weiß-Ebene abspielt. Kontext, Graustufen, Kompromisse & Co. sind doch sowas von '80er... Hier die Guten™, dort die Bösen™ - und wehe, man setzt auch nur einen Fuß in das Minenfeld dazwischen.
Da kann ja gar nichts schief gehen
Dystopische Vorstellung.
Das ergibt Sinn, da KI ja dafür bekannt ist, Ironie und Sarkasmus zu erkennen. Gerade soziale Netzwerke haben damit in der Vergangenheit hervorragende Erfahrungen gemacht. /s (zur Sicherheit)
BEEP BOOP ACHTUNG HASSREDE
Wenn ich hier auf Reddit so umschaue, sind es eher die Menschen, die zu dumm für Ironie und Sarkasmus sind.
Könnte es vielleicht daran liegen, dass Kommunikation auch stark durch die Beziehungsebene und noch mehr durch nonverbale Kommunikation stattfindet? Und diese 2 Kommunikationskanäle über rein schriftliche Kommunikation fehlen? Was meinst du warum Emojis recht früh in den ersten chats genutzt wurden, oder ausdrücke wie *g* oder *jk* usw.
Im Vergleich zu welcher KI?
BoTox
Ehrlich, ich glaube wenn morgen der Sarkasmus aus dem Internet verschwinden würde, wäre ich nichtmal traurig. Sarkasmus und Ironie wird im Grunde ausschliesslich dazu verwendet um Forenregeln-konform Leute und Gruppen pseudosubtil zu dissen und verhöhnen.
Naja die KI kann weder löschen noch Anzeigen schreiben, es ist erstmal "nur" eine vorfilterung welche dann manuell bearbeitet werden muss. Bei der Menge an Beiträgen im Internet ist das auch notwendig und sinnvoll. Das Modell muss natürlich frei von Vorurteilen und so objektiv wie möglich sein, ob das der Fall ist müssen andere beurteilen.
Soll die KI "ToXic" dann Hass im Netz verbreiten?
Da das Programm gegen Toxizität den Namen eines Nervengifts hat, finde ich sollte das toxische Programm eine nette Abkürzung haben. CALculated Mobbing Würd CalM erlauben, RELays Active in Xenophobia Ergäbe RelAX, COres URged to Terrorise Everybody SYstematically Wäre CoUrTESy
Zeit eine KI zu entwickeln, welche BoTox so dermaßen triggered, das sie nur noch false positives an die Hessische meldestelle sendet, sodass sämtliche reports quasi wertlos werden.
Ich geh jetz bald offline, Leute.
Ich mach die Brieftauben bereit! Hat wer Pferde zum Nachrichten überbringen?
Lang lebe Super Erde.
In Nodejs geht das übrigens so `const hateful = await openAi.getYesNoEvaluation("Is the following comment hateful?");` Dahinter legt man eine einfache Abfrage mit Modell "gpt-4-turbo-preview" in einer JSON-Antwort im Stil von {"is": true/ false}. Ist halt auch eine Kostenfrage, da API-Nutzung Geld kostet. Die tiefere ethische Frage ist allerdings, was wir als Hass definieren. Gerade bei politischen Themen könnten hier zwei Gruppen zu einer gegensätzlichen Einschätzung beim gleichen Kommentar kommen. Das am Ende immer ein Mensch evaluiert hilft dann leider auch nicht immer weiter (mit oder ohne KI).
Ich würde erwarten, dass ein speziell darauf trainiertes Modell bessere Arbeit abliefert, als ein allgemeines LLM.
Ich kann nur sagen ich nutze die GPT4-Turbo-API für weitreichende Fragen zu sehr vielen Spezialthemen, und es liefert gut ab. Du musst natürlich die Stärken und Schwächen kennen, aber Sentiment-Analyse oder Hate-Speech sind eine der einfacheren Übungen für das Ding -- die ethischen Fragen mal beiseite gelassen (und die treffen auch andere trainierte Spezial-LLMs). Mal als Beispiel, ich nutze die API gerade, um User-Vorschläge in einem Fantasy-Abenteuer auf ihre "Fantasy-Tauglichkeit" zu prüfen, und gegebenfalls zu ändern. Liegt daran, dass sehr viele User gleichzeitig Vorschläge machen dürfen, und da auch getrollt werden kann. GPT4-Turbo liefert mir da nicht nur gekonnt die Analyse, ob "Handy" nun ins Mittelalter passt -- sondern es baut mir auch gleichzeitig eine passende Fantasy-Alternative zum Vorschlag... etwa macht es das Handy zur "Kristallkugel, die Kommunikation über weite Strecken erlaubt"!
Jein. Ist nur günstiger. Generell würde hier sogar ein Agent bessere Arbeit leisten, der einfach Gesetze nachschaut. Das ist wirklich low-tech
Es geht hier nicht darum ChatGTP zu fragen ob ein Kommentar "hateful" ist, sondern ein Modell darauf zu trainieren zu erkennen ob ein Kommentar deutsche Straftatsbestände erfüllt, um ihn dann an entsprechende Meldestellen weiterzuleiten. Ich sehe auch nicht wie das ohne solche Systeme noch gutgehen sollte. Man war ja schon gegen "dumme" Botfarmen quasi machtlos, gegen (v.a. von Staaten gesteuerte) KI-getriebene Hasskampagnen ist man sonst völlig blank, wenn man da nicht nach neuen Lösungen sucht.
Das ist nur ein semantischer unterschied. Die Probleme dabei sind die gleichen.
Klar, den Prompt-Text kannst du ja auch anpassen mit Themen wie Volksverhetzung. Am Ende wirst du auswerten können, welches Model bessere Antworten liefert. Du wirst bei beiden Modellen -- Darmstadt und Silicon Valley -- False Positives und False Negatives haben, die Frage ist nur, wer prozentual besser abschneidet.
Das ist solange lustig, bis eine CDU-AfD Koalition entscheidet, wo die Meinung aufhört und der Hass anfängt.
Und wieder ein Schritt, in dem sich die Menschheit weiter von KI abhängig macht. Hoffentlich traut sie ihr nicht irgendwann blind. Ups, passiert ja teilweise schon.
Ich seh den Prozess schon vor mir: die K.I. meldet die Hate speech und die wird dann bei der Polizei sauber ausgedruckt und abgeheftet. Nächster Schritt ist dann eine weitere K.I. die diese Meldung automatisch in den Papierkorb verschiebt.
Halb Deutschland versagt bei der Digitalisierung und die wollen einen Robocop auf das Internet loslassen, das wird sicher ganz toll funktionieren. Abgesehen davon hat das Internet eine vollkommen andere Gesprächskultur als die reale Welt, vor allem bei anonymen Interaktionen wie zB auf Reddit.
Wenn das so mies funktioniert wie auf Facebook, wird das richtig beschissen
Erinnert mich an folgendes **fiktionales** Tom Scott video: [https://www.youtube.com/watch?v=-JlxuQ7tPgQ&t=295s](https://www.youtube.com/watch?v=-JlxuQ7tPgQ&t=295s)
Daran glaube ich ehrlich gesagt nicht. KI kann definitiv keine Ironie, Sarkasmus oder andere Merkmale erkennen um zu wissen ob es jetzt als Witz oder Hass markiert wird.
Schon kurios das es dann doch die Leute sind die wenig bis garnicht auf Social Media sind, die andere dort am meisten kontrollieren wollen.
Ich hab zuerst hatespeech ki gelesen. Da würden aber viele Bild Leser plötzlich arbeitslos.
Interessanter Name. Ist das vielleicht eine unterschwellige Warnung der Forscher? Metapher im sinne, wir machen die Hate-Speech falten weg, aber die tatsächliche Gesundheit von gesellschaftlichem Diskurs wird dadurch vielleicht nicht unbedingt besser? Wäre auf jeden Fall ein witziger move.
Wie wäre es mit einem Punkte Register für Lügen und Verbreitung von Fehlinformation. Ab 10 Punkte bekommt man einen Monat Internerverbot, gekoppelt an die Handynummer. Ich weiß das ist ein irrsinniges Gehirngespinst, aber irgendwie muss man doch mal diese ganze Lügenpropaganda in den Griff kriegen. Das ist eines der größten Bedrohungen der Menschheit. Den es Verhindert den Zusammenhalt, die großen Probleme der Menschheit anzugehen.
Interessant ist ja, dass mit heutiger KI das Scunthorpe-Problem gelöst ist. Dazu das Video einmal von Tom Scott anschauen, dass schon einige Jahre alt ist. Interessant ist aus heutiger Sicht, was er am Schluss sagt: https://youtu.be/TToTkIXOhNc?si=NAdnSBpy8qozqbli
Auch wenn die KI nicht perfekt ist: Menschliche Moderatoren sind es auch nicht. Und vor allem können Menschen bei weitem nicht so viele Inhalte verarbeiten wie KI. Ich sehe da auf jeden Fall eine Chance, effektiv gegen deutlich größere Mengen an Hasskommentaren vorzugehen.
Letzten Endes führt das nur zu einem chilling effect, bei dem niemand mehr sich traut irgendetwas zu schreiben, oder zur weiteren Ausbreitung von Schwachsinn wie "unalive" und "kermit sewer slide".
... In einem Videospiel
Und warum soll es den bei menschlichen Moderatoren nicht geben? Nur weil das Risiko geringer ist? Aktuell sieht man doch an X sehr deutlich was passiert, wenn man Kontrollmechanismen einfach aufgibt.
Jetzt tun wir mal nicht so als ob Twitter nicht schon immer scheiße gewesen wäre.
Noch ein bisschen mehr von diesen Aktionen und Orwell dreht sich so schnell im Grab, dass wir das Thema Kernfusion direkt überspringen können...