Nächste Stufe der Online Zensur – Google Sprachanalyse

Unter den dümmsten Ideen die es gibt eine, die fast alles toppt: Einer „AI“ zu überlassen ob Sprache „toxisch“ ist und damit zensiert werden muss, oder auch ausgeblendet. Google hat eine solche „AI“ (die scheint mir sehr dämlich zu sein) online. Kann man hier ausprobieren. Warum dämlich? Beispiel:

 

 

 

 

 

 

 

Diese Maschine wird wohl dadurch trainiert, dass Menschen entscheiden, was nun „toxisch“ ist, Schimpfworte führen anscheinend dazu das eine Aussage als besonders furchtbar eingestuft wird.

 

Perspective was trained on text from actual online comments. As such, its interpretation of certain terms is limited—because „fuck you“ is more common in comments sections than „fuck yeah,“ the tool perceives the word „fuck“ as inherently toxic. Another example: Type „women are not as smart as men“ into the meter’s text box, and the sentence is „4% likely to be perceived as ‚toxic‘.“ A number of other highly problematic phrases—from „men are biologically superior to women“ to „genocide is good“—rank low on toxicity. Meanwhile, „fuck off“ comes in at 100 percent.

 

Was kann da schon schiefgehen? Nun, wie man an Microsofts AI „Tay“ gesehen hat, dauerte es nicht lange bis ein paar Trolle Tay dazu brachten, sehr böse, rassistische Dinge zu tweeten.