Der Marburg Virus Diskussionsthread (und weitere Schlagzeilen)

Montagsfrage 08.01.24 (anonym)

  • SPD

    Stimmen: 5 4,9%
  • Union

    Stimmen: 7 6,8%
  • DIE GRÜNEN

    Stimmen: 24 23,3%
  • FDP

    Stimmen: 4 3,9%
  • AfD

    Stimmen: 9 8,7%
  • DIE LINKE

    Stimmen: 9 8,7%
  • BSW

    Stimmen: 11 10,7%
  • Sonstige

    Stimmen: 17 16,5%
  • Nichtwähler

    Stimmen: 17 16,5%

  • Umfrageteilnehmer
    103
  • Umfrage geschlossen .
keine ahnung wie euch das geht aber so spacken die einkaufswagen klauen gehören mmn härter bestraft als ladendiebe
 
ohne geklaute einkaufswagen hätten einige obdachlose keine möglichkeit ihr habundgut zu transportieren. schon mal darüber nachgedacht?
 
Ist schon eine etwas ältere Meldung, aber gerade weil das Thema immer relevanter wird und Leute für meine Begriffe viel zu wenig darüber reden muss ichs jetzt doch Mal posten hier.

Eine Drittfirma, die für TikTok Moderatoren ausbildet, benutzt Missbrauchsfälle von Kindern, die von der Plattform entfernt wurden, zu Trainingszwecken:

https://www.forbes.com/sites/alexan...ual-abuse-and-using-them-to-train-moderators/

Nasser, who was working for a third-party company, Teleperformance, that moderates content for the social media giant, had been assigned to a special project: teaching TikTok’s AI to spot the worst of the worst posted in the app. Just a few days into onboarding, he and his colleagues were shown graphic images and videos of children involved in sexual acts—all material that had been removed from TikTok.

Hier ein anderer Artikel über Facebooks outgesourcte Moderatoren in Afrika:
https://time.com/6147458/facebook-africa-content-moderation-employee-treatment/


TIME is aware of at least two Sama content moderators who chose to resign after being diagnosed with mental illnesses including post-traumatic stress disorder (PTSD), anxiety, and depression. Many others described how they had been traumatized by the work but were unable to obtain formal diagnoses due to their inability to afford access to quality mental healthcare. Some described continuing with work despite trauma because they had no other options. While Sama employs wellness counselors to provide workers with on-site care in Nairobi, most of the content moderators TIME spoke to said they generally distrust the counselors. One former wellness counselor says that Sama managers regularly rejected counselors’ requests to let content moderators take “wellness breaks” during the day, because of the impact it would have on productivity.


Several other current and former content moderators described similar experiences of not being warned about the nature of the job. Two, from separate countries, said they had answered job ads placed via agencies for “call center agents.”

Elsewhere in the world, similar working conditions have landed Facebook in hot water. In 2020, the social network paid out $52 million to fund mental health treatment for some of its American content moderators following a lawsuit centered on mental ill health stemming from their work, including PTSD. In the U.S. and Europe, many Facebook content moderators employed by the outsourcing firm Accenture are now asked to sign a waiver before they begin their jobs, acknowledging that they may develop PTSD and other mental health disorders. African content moderators working for Sama say they are not asked to sign such a waiver.




According to payslips seen by TIME, Sama pays foreign employees monthly pre-tax salaries of around 60,000 Kenyan shillings ($528), which includes a monthly bonus for relocating from elsewhere in Africa. After tax, this equates to around $440 per month, or a take-home wage of roughly $2.20 per hour, based on a 45-hour work week. Sama employees from within Kenya, who are not paid the monthly relocation bonus, receive a take-home wage equivalent to around $1.46 per hour after tax. In an interview with the BBC in 2018, Sama’s late founder Leila Janah attempted to justify the company’s levels of pay in the region. “One thing that’s critical in our line of work is to not pay wages that would distort local labor markets,” she said. “If we were to pay people substantially more than that, we would throw everything off.”



Ich finde es ja gut und richtig, dass die Politik Druck auf die Tech Unternehmen macht, ihre Inhalte zu kontrollieren und ggf. zu löschen. Aber es wird fast nie darüber gesprochen, was das im Konkreten bedeutet, nämlich dass Menschen überall auf der Welt, und natürlich auch gerne aus ärmeren Ländern mit geringem Lohnniveau, sich dieses Material anschauen müssen, 8+ Stunden am Tag, und dabei in den meisten Fällen mangelhafte bis gar keine psychologische Unterstützung und definitiv zu wenig Geld bekommen.

Fast alle Berichte von Moderatoren in solchen Netzwerken handeln davon, dass diese nach relativ kurzer Zeit kündigen mussten weil es zu viel wurde und sie psychisch kaputt gemacht hat.

Klar, die Firmen versuchen das Thema über Machine Learning zu lösen sodass es irgendwann einen Punkt geben sollte, theoretisch, an dem es keine Menschen mehr braucht. Aber die Kosten da hin zu kommen sind für diejenigen, die das machen, extrem hoch und das wird mir zu oft unter den Teppich gekehrt.

Und TikTok gehört sowieso verboten
 
Aber es wird fast nie darüber gesprochen, was das im Konkreten bedeutet, nämlich dass Menschen überall auf der Welt, und natürlich auch gerne aus ärmeren Ländern mit geringem Lohnniveau, sich dieses Material anschauen müssen, 8+ Stunden am Tag, und dabei in den meisten Fällen mangelhafte bis gar keine psychologische Unterstützung und definitiv zu wenig Geld bekommen.
Ja gut, man kann natürlich Arbeit im Allgemeinen kritisieren, aber ich würde mir viel lieber irgendwelche Videos anschauen, als in einer Fabrik oder auf dem Bau zu arbeiten.
 
Ja gut, man kann natürlich Arbeit im Allgemeinen kritisieren, aber ich würde mir viel lieber irgendwelche Videos anschauen, als in einer Fabrik oder auf dem Bau zu arbeiten.

Wir reden über 8 Stunden am Tag Videos von Enthauptungen, Mord, Vergewaltigung, Fetisch aller Art, snuff, etc.

Wenn du meinst du machst das locker dann ist das vielleicht der Beruf für dich, solltest dich mal umschauen.
 
Kollege von mir hat das mal 3 Monate bei Facebook gemacht.

Soll der beschissenste Job überhaupt sein. Du guckst den ganzen Tag Videos wie oben beschrieben: Vergewaltigung, Tierquälerei, Enthauptung usw usw. Und das am laufenden Band. Du stehst nämlich zusätzlich noch zeitlich übelst unter Druck. Es gibt Vorgaben wie lange du für welche Art von Videos überlegen kannst ob es gesperrt werden soll oder nicht. Erreichst du eine gewisse Zahl an Beurteilungen pro Schicht nicht, darfst du beim Chef antanzen. Aber du musst dir die Videos schon richtig anschauen, weil wenn jemand gegen die Sperre Beschwerde einreicht wird es nochmal überprüft und wenn deine Beurteilung falsch war darfst du auch wieder zum Chef.
Psychologische Betreuung gibt es dort in der Theorie. Sobald jemand aber Schwäche zeigt wird im sofort Nahe gelegt sich zu verpissen.

Die Videos haben meinem Kollegen ziemlich zugesetzt sodass er nach 3 Monaten aufgehört hat. Er meinte die Scheiße kann auch keiner lang machen. Was ich durchaus nachvollziehen kann.
 
Eigentlich dürfte es erbsenzählerisch falsch sein, daß in der Überschrift von "Child Sexual Abuse" die Rede ist (das suggeriert meiner Meinung nach gezielte Manipulation oder gar Zwang durch Dritte).

Meines Wissens ist (aufgrund der hohen Verbreitung von Smartphones usw.) der Löwenanteil der pornographischen Aufnahmen von Kindern (bei Jugendlichen sowieso erst Recht) von diesen selbst gefilmt worden, sozusagen auf eigene Motivation hin (das sich diese nicht von den gesellschaftlichen Umständen trennen läßt, ist mir natürlich auch klar, siehe nächster Abschnitt).

Das ist eine traurige Wahrheit, der sich TikTok (aber auch Instagram und Co.) nicht stellen wollen oder können (weil u.a. auch Geschäftsmodell): Solange bei Erwachsenen stark sexualisierte Beiträge (gerade von jungen Frauen) ein Garant für viele Likes, Follower usw. sind, solange werden dies natürlich auch Minderjährige nachahmen.

Vielen durchschnittlichen 14jährigen ist natürlich sehr wohl bewußt, daß "mehr Sex" (können natürlich auch noch Dinge sein, die weder illegal sind noch von den Plattform gelöscht werden wie bspw. sexualisierte Tanzvideos usw.) typischerweise mehr Aufmerksamkeit bedeutet.

Ich bin selbst vor Jahren mal zufällig Teil von sowas bei YouNow gewesen (habe mir da vorrangig die Zeit mit einem Musikquiz vertrieben aber bisweilen auch in die gerade besonders frequentierten Streams reingeschaut und alberne Sprüche geklopft), ein Mädchen im Stream (ich meine, die war so 15 oder 16) die von sich aus Losungen a la "bei [x] Daumen hoch ziehe ich mein T-Shirt aus" ausgegeben hat (zur großen Freude einiger Nutzer im Chat - von denen viele garantiert keine Teenager mehr waren...). Hab zunächst (ganz Sozialarbeiter-mäßig) versucht, sie darauf hinzuweisen, daß das eventuell keine so gute Idee ist, daß Streams auch relativ problemlos mitgeschnitten werden können usw. Hat sich leider nicht überzeugen lassen. Ich hab daraufhin die snitch gemacht und ihren Kanal gemeldet.
 
Zuletzt bearbeitet:
Eigentlich dürfte es erbsenzählerisch falsch sein, daß in der Überschrift von "Child Sexual Abuse" die Rede ist (das suggeriert meiner Meinung nach gezielte Manipulation oder gar Zwang durch Dritte).

Meines Wissens ist (aufgrund der hohen Verbreitung von Smartphones usw.) der Löwenanteil der pornographischen Aufnahmen von Kindern (bei Jugendlichen sowieso erst Recht) von diesen selbst gefilmt worden, sozusagen auf eigene Motivation hin (das sich diese nicht von den gesellschaftlichen Umständen trennen läßt, ist mir natürlich auch klar, siehe nächster Abschnitt).

Das ist eine traurige Wahrheit, der sich TikTok (aber auch Instagram und Co.) nicht stellen wollen oder können (weil u.a. auch Geschäftsmodell): Solange bei Erwachsenen stark sexualisierte Beiträge (gerade von jungen Frauen) ein Garant für viele Likes, Follower usw. sind, solange werden dies natürlich auch Minderjährige nachahmen.

Vielen durchschnittlichen 14jährigen ist natürlich sehr wohl bewußt, daß "mehr Sex" (können natürlich auch noch Dinge sein, die weder illegal sind noch von den Plattform gelöscht werden wie bspw. stark sexualisierte Tanzvideos usw.) typischerweise mehr Aufmerksamkeit bedeutet.

Ich bin selbst vor Jahren mal zufällig Teil von sowas bei YouNow gewesen (habe mir da vorrangig die Zeit mit einem Musikquiz vertrieben aber bisweilen auch in die gerade besonders frequentierten Streams reingeschaut und alberne Sprüche geklopft), ein Mädchen im Stream (ich meine, die war so 15 oder 16) die von sich aus Losungen a la "bei [x] Daumen hoch ziehe ich mein T-Shirt aus" ausgegeben hat (zur großen Freude einiger Nutzer im Chat - von denen viele garantiert keine Teenager mehr waren...). Hab zunächst (ganz Sozialarbeiter-mäßig) versucht, sie darauf hinzuweisen, daß das eventuell keine so gute Idee ist, daß Streams auch relativ problemlos mitgeschnitten werden können usw. Hat sich leider nicht überzeugen lassen. Ich hab daraufhin die snitch gemacht und ihren Kanal gemeldet.

Klingt für mich nicht danach:

A largely unsecured cache of pictures of children being sexually exploited

Nasser expected to be confronted with some disturbing material during his training to become a content moderator for TikTok. But he was shocked when he and others in his class were shown uncensored, sexually explicit images of children.



Nasser, who was working for a third-party company, Teleperformance, that moderates content for the social media giant, had been assigned to a special project: teaching TikTok’s AI to spot the worst of the worst posted in the app. Just a few days into onboarding, he and his colleagues were shown graphic images and videos of children involved in sexual acts—all material that had been removed from TikTok.
 
Würde echt vermuten, daß das etwas anderes greift, eine andere Formulierung wäre sozusagen gar nicht möglich. Die Ausgangsposition ist im US Diskurs, daß solche Aufnahmen immer sexuelle Ausbeutung sind (was im weitesten Sinne auch stimmt, aber nicht im näheren Sinne).

In den USA auch noch mehr als hier: Hierzulande konnten bspw. bei der (richtigen) Verschärferung der Gesetze zu Jugendpornografie vor einigen Jahren noch Ausnahmeregelungen für Jugendliche diskutiert werden. Während in den US schon etliche Male Jugendliche selbst wegen "Verbreitung von Kinderpornografie" (wohlgemerkt von sich selbst) rechtlichen Streß bekommen haben (oder eben, und darauf zielen die diesbzgl. Ausnahmen im deutschen Strafrecht, wenn sich Jugendlich einvernehmlich Aufnahmen schicken bzw. erstellen)

Das ist aber eine Nuance, die zumindest meiner Wahrnehmung nach in der öffentlichen US Diskussion nicht vorkommt (siehe übrigens auch die mangelnde Unterscheidung zwischen "Jugendliche" und "Kinder", die das deutsche Recht aber auch die deutsche Öffentlichkeit in solchen Fragen macht*). Die schiere Aussage (selbst wenn sie faktisch stimmt), daß ein Kind auf dem Sprung in die Pubertät aus freien Stücken (mit den üblichen Einschränkungen, siehe oben) z.b. ein Masturbationsvideo online gestellt hat oder haben könnte, wird in diesem Zusammenhang dann auch gerne als "Verharmlosung von sexuellen Übergriffen" oder sogar "Rechtfertigung" dessen verstanden (was natürlich eine komplett idiotische Unterstellung ist).
 
Würde echt vermuten, daß das etwas anderes greift, eine andere Formulierung wäre sozusagen gar nicht möglich. Die Ausgangsposition ist im US Diskurs, daß solche Aufnahmen immer sexuelle Ausbeutung sind (was im weitesten Sinne auch stimmt, aber nicht im näheren Sinne).

In den USA auch noch mehr als hier: Hierzulande konnten bspw. bei der (richtigen) Verschärferung der Gesetze zu Jugendpornografie vor einigen Jahren noch Ausnahmeregelungen für Jugendliche diskutiert werden. Während in den US schon etliche Male Jugendliche selbst wegen "Verbreitung von Kinderpornografie" (wohlgemerkt von sich selbst) rechtlichen Streß bekommen haben (oder eben, und darauf zielen die diesbzgl. Ausnahmen im deutschen Strafrecht, wenn sich Jugendlich einvernehmlich Aufnahmen schicken bzw. erstellen)

Das ist aber eine Nuance, die zumindest meiner Wahrnehmung nach in der öffentlichen US Diskussion nicht vorkommt (siehe übrigens auch die mangelnde Unterscheidung zwischen "Jugendliche" und "Kinder", die das deutsche Recht aber auch die deutsche Öffentlichkeit in solchen Fragen macht*). Die schiere Aussage (selbst wenn sie faktisch stimmt), daß ein Kind auf dem Sprung in die Pubertät aus freien Stücken (mit den üblichen Einschränkungen, siehe oben) z.b. ein Masturbationsvideo online gestellt hat oder haben könnte, wird in diesem Zusammenhang dann auch gerne als "Verharmlosung von sexuellen Übergriffen" oder sogar "Rechtfertigung" dessen verstanden (was natürlich eine komplett idiotische Unterstellung ist).

Ja das ist mir schon bewusst, sowohl in USA als auch in UK wird das sehr streng ausgelegt, da ist es ja schon schwierig wenn ein 18 jähriger ne 16 jährige Freundin hat.

Nichtsdestotrotz würde ich nur aufgrund dieser Tatsache nicht automatisch darauf schließen, dass es sich bei diesem Material ausschließlich um die von dir beschriebenen Fälle handeln sollte. Das wissen wir schlicht nicht, aber denkbar ist alles. Wenn es Enthauptungsvideos auf TikTok schaffen dann mit Sicherheit auch Kinderpornografie.
 
Zurück
Oben Unten