Kai 2022 m. Elonas Muskas perėmė „Twitter“, jis sakė, kad jo „svarbiausias prioritetas“ buvo išspręsti seksualinės prievartos vaikų problemą platformoje. Po trejų metų, atrodo, kad problema, kaip anoniminė, kaip anoniminė, eskaluojama, kad šimtai pranešimų per valandą reklamuoja nelegalios medžiagos pardavimą. Tuo pačiu metu „Thorn“, „Thorn“, Kalifornijoje įsikūrusi ne pelno siekianti organizacija, kuri dirba su „Tech“ įmonėmis. Norėdami pateikti išsamią informaciją apie jos susitarimą su įmone, cituojant teisinį jautrumą.
Kai kurie „Thorn“ įrankiai yra skirti išspręsti pačią problemą, kuri, atrodo, auga platformoje.
„Neseniai dėl nemokėjimo nutraukėme sutartį su X“, – „NBC News“ sakė Cassie Coccaro, „Thorn“ komunikacijos vadovas. „Ir tai buvo po kelių mėnesių ir mėnesių informavimo, lankstumo, bandymo, kad jis veiktų. Ir galiausiai turėjome sustabdyti sutartį“.
Atsakydamas į prašymus komentuoti, X nenagrinėjo jo santykių su erškėčiu ar nuolatiniu sąskaitų problema, naudodama platformą, kad būtų galima parduoti seksualinės prievartos vaikų seksualinę prievartą (CSAM).
Daugybė vaikų išnaudojimo skelbimų leidimo aspektų, apie kuriuos „NBC News“ pirmą kartą pranešė 2023 m. Sausio mėn., Platformoje išlieka tie patys. Vaikų seksualinės prievartos medžiagos (CSAM) pardavėjai ir toliau naudoja hashtagus, pagrįstus seksualiniais raktiniais žodžiais, kad reklamuotų žmonėms, norintiems nusipirkti CSAM. Jų įrašai nukreipia būsimus pirkėjus į kitas platformas, kuriose vartotojų prašoma pinigų mainais už prievartos prieš vaikus medžiagą.
Kiti aspektai yra nauji: kai kurios sąskaitos dabar atrodo automatizuotos (dar vadinamos robotu), o kitos pasinaudojo „bendruomenėmis“, palyginti nauja funkcija, pradėta 2021 m. Naudodamiesi bendruomenėmis, CSAM reklamuotojai sugebėjo paskelbti dešimčių tūkstančių žmonių grupes, skirtas tokioms temoms kaip kraujomaiša, atrodytų, be daug tikrinimo.
Kanados vaikų apsaugos centras (C3P), nepriklausoma internetinė CSAM budėjimo grupė, apžvelgė keletą X sąskaitų ir žymeklių, pažymėtų NBC naujienomis, skatinančiomis CSAM pardavimą, ir sekė nuorodas, kurias reklamuoja kelios sąskaitos. Organizacija teigė, kad per kelias minutes ji sugebėjo atpažinti paskyras, kuriose buvo paskelbtos anksčiau identifikuotų CSAM aukų vaizdai, kurie buvo iki 7 metų. Ji taip pat rado akivaizdžių CSAM vaizdų miniatiūrų peržiūrose, užpildytose X ir nuorodose į telegramų kanalus, kuriuose buvo paskelbti CSAM vaizdo įrašai. Vienas iš tokių kanalų parodė, kad berniuko vaizdo įrašas, kuris, kaip manoma, yra net 4, yra seksualiai užpultas. „NBC News“ nežiūrėjo ir neturėjo jokios prievartos medžiagos.
C3P informacinių technologijų direktorius Lloydas Richardsonas teigė, kad šiuo metu „X“ vartotojų eksponuojamas elgesys buvo „šiek tiek senas skrybėlė“ ir tas X atsakymas „buvo apgailėtinai nepakankamas“. „Atrodo, kad tai yra šiek tiek„ Whac-a-Mole “žaidimo, kuris tęsiasi“,-sakė jis. „Atrodo, kad nėra ypatingo postūmio iš tikrųjų pasiekti pagrindinę problemos priežastį.“ X sako, kad ji turi nulinę tolerancijos politiką „bet kokiai medžiagai, kuriai būdinga ar skatina vaikų seksualinis išnaudojimas“.
Daugelio žymų apžvalga, kai terminai, kurie, kaip žinoma, yra susiję su CSAM, rodo, kad problema yra, jei kas, blogiau nei tada, kai iš pradžių Muskas perėmė. Tai, kas anksčiau buvo mažiau nei keliolikos valandos pranešimų, dabar yra torrentas, kurį skatina paskyros, kurios, atrodo, yra automatizuotos – kai kurie skelbia kelis kartus per minutę.
Nepaisant nuolatinio potvynio ir atsitiktinių individualių sąskaitų draudimų, „NBC News“ pastebėtos žymos per kelias savaites nuo trečiadienio išliko atviras ir matomas. Ir kai kurie „NBC News“, kuriuos 2023 m. Nustatė „NBC News“, kaip vaikų išnaudojimo reklamos, vis dar naudojamos tam pačiam tikslui ir šiandien.
Istoriškai „Twitter“ ir tada X bandė užblokuoti tam tikrus žymas, susijusius su vaikų išnaudojimu. Kai „NBC News“ pirmą kartą pranešė apie „X“ naudojimą CSAM rinkai, „X“ pasitikėjimo ir saugos vadovas teigė, kad bendrovė žinojo, kad ji turi padaryti darbą ir atliks pakeitimus, įskaitant automatinių sistemų kūrimą, skirtą aptikti ir blokuoti maišos žymes.
2024 m. Sausio mėn. X generalinė direktorė Linda Yaccarino paliudijo Senato teismų komitetui, kad bendrovė sustiprino savo vykdymą „su daugiau priemonių ir technologijų, kad blogi veikėjai neleistų platinti, ieškoti ar užsiimti (vaikų seksualinio išnaudojimo) turiniu visose žiniasklaidos priemonėse“.

2024 m. Gegužės mėn. X pareiškė, kad tai padėjo „Thorn“ išbandyti įrankį „aktyviai aptikti tekstinius vaikų seksualinį išnaudojimą“. „Savarankiškas sprendimas buvo sklandžiai panaudotas mūsų aptikimo mechanizmuose, leidžiančiuose mums įsitvirtinti didelės rizikos sąskaitose ir išplėsti vaikų seksualinio išnaudojimo teksto aptikimo aprėptį, X sakė“.
Pailes Halai, „Thorn“ vyresnysis sąskaitų ir partnerystės vadovas, prižiūrėjęs X sutartį, teigė, kad kai kurios „Thorn“ programinės įrangos yra skirtos spręsti tokias problemas kaip problemos, kurias pateikė „Hashtag CSAM“ pranešimai, tačiau nebuvo aišku, ar jie kada nors ją visiškai įgyvendino.
„Praėjusiais metais jie dalyvavo beta versijoje“, – sakė jis. „Taigi jie padėjo mums išbandyti ir patobulinti, ir pan., Ir iš esmės buvo ankstyvas produkto priėmimas. Vėliau jie perėjo prie pilno produkto kliento, tačiau šiuo metu mums nėra labai aišku, kaip ir jei jie juo naudojo.”
Be erškėčio nėra visiškai aišku, kokius vaikų saugumo mechanizmus X šiuo metu naudoja. „Mūsų technologija yra sukurta atsižvelgiant į saugumą“, – teigė Halai. „Platforma turi tinkamai įgyvendinti ir naudoti technologiją … tai, ką mes žinome iš mūsų pusės, yra skirta sugauti tą pačią žalą, apie kurią jūs kalbate“.
Halai teigė, kad „Thorn“ nesiėmė savo sutarties su X lengvai nutraukimo.
„Mums tai buvo paskutinio-resorto sprendimas“,-sakė jis. „Mes jiems teikėme paslaugas. Mes tai darėme tiek laiko, kiek galėjome, išnaudojome visas įmanomas galimybes ir galų gale turėjome nutraukti, nes, kaip ne pelno siekianti organizacija, mes nesame tiksliai padedantys išlaikyti ką nors tokiai įmonei kaip X, kur mes iš tikrųjų patiriame didžiules išlaidas“.
Šiuo metu kai kurie žymekliai, tokie kaip #ChildPorn, yra užblokuoti, kai naudojami X paieškos funkcija, tačiau kiti hashtagai yra atviri naršyti ir užpildyti parduodamais įrašais. „NBC News“ nustatė, kad įrašai, rodantys CSAM 23 hashtags, kurie dažnai naudojami kartu, naudojami kartu. „NBC News“ nustatė tik du maišus, kuriuos užblokavo X. Hashtagai, į kuriuos buvo galima paskelbti ir peržiūrėti NBC naujienų peržiūrą apie platformą, svyravo nuo nuorodų iki kraujomaišos ir paauglių iki šiek tiek labiau užkoduotų terminų, pavyzdžiui, žodžių derinių su pavadinimu „Nefunging Video Chat Platform omleGle“, kuri uždaroma 2023 po vaikų sekso įstatymų. Kai kuriuose žymenyse buvo numatytos raidės ir buvo tik įrašai, reklamuojantys CSAM, tai rodo, kad jie buvo sukurti siekiant išskirtinio tikslo, kaip apgyvendinti reklamą.
Kai kurie paskyrų, skelbiančių skelbimus, vartotojo vardus buvo tiesiog žodžių, susijusių su CSAM turiniu platformoje, sumaišymas, maišant socialinės žiniasklaidos platformų pavadinimus su kitais raktiniais žodžiais.
Daugelis vartotojų, tiesiogiai susietų su telegramų kanalais savo įrašuose ar jų paskyros BIOS, ir pateikė aiškias nuorodas į CSAM. Kai kurie įrašai, susieti su nesantaikos kanalais ar prašydami tiesioginių pranešimų, kad būtų užtikrintos nesantaikos nuorodos.
„Telegram“ ir „Discord“ turi skirtingas pozicijas interneto vaikų išnaudojimo ekosistemoje, siūlančiose pusiau privačias ir privačias vietas žmonėms, norintiems parduoti ar nusipirkti vaikų išnaudojimo medžiagą. Anksčiau „NBC News“ pranešė apie 35 atvejus, kai suaugusiesiems buvo patraukti baudžiamojon atsakomybėn dėl kaltinimų pagrobimu, viliojimu ar seksualiniu užpuolimu, dėl kurio tariamai buvo susiję su nesantaika.
Nesantaikos atstovas teigė: „„ Nesantaika netolerancija vaikų seksualinei prievartai prieš vaikus, ir mes nedelsdami imamės veiksmų, kai tai sužinojome, įskaitant turinio pašalinimą, vartotojų draudimą ir pranešimą Nacionaliniam dingusių ir išnaudojamų vaikų centrui (NCMEC). “ Bendrovė teigė, kad atsakydama į „NBC News“ informavimą, kad pašalino kelis serverius, „už politikos pažeidimus, nesusijusius su CSAM pardavimu“.
„Telegram“ atstovas teigė, kad „CSAM aiškiai draudžia„ Telegram “paslaugų teikimo sąlygos ir toks turinys pašalinamas, kai tik aptiktas“. Atstovas atkreipė dėmesį į bendrovės partnerystę su JK „Internet Watch Foundation“, kuri palaiko žinomo CSAM duomenų bazę ir teikia įrankius jį aptikti ir pašalinti.
Nors kai kurios X sąskaitos paskelbtos viešai, kitos paprašė ir pasiūlė CSAM per X bendruomenių funkciją, kur vartotojai kuria grupes pagal konkrečias temas. „NBC News“ stebėjo grupes, kuriose yra dešimtys tūkstančių narių, kuriose CSAM buvo paprašyta arba buvo pasiūlyta parduoti.
Grupėje, kurioje yra daugiau nei 70 000 narių, skirtų „kraujomaišos prisipažinimams“, keli vartotojai kelis kartus paskelbė, kad susiejo su telegramų kanalais, aiškiai nurodydami CSAM. „Aš parduodu 6CP aplanką tik už 90 USD“, – rašė vienas vartotojas, susiejęs su telegramos paskyra. CP yra dažna internetinė santrumpa „Vaikų pornografija“.
CSAM buvo nuolatinė problema internete ir socialinėje žiniasklaidoje. Daugelis kompanijų dirba specializuotomis komandomis ir kuria automatizuotas sistemas, kad nustatytų ir pašalintų piktnaudžiavimo turinį ir tų, kurie jį skleidžia.
Tačiau Muskas taip pat įsteigė drastišką bendrovės pasitikėjimo ir saugos komandų mažinimą ir išformavo įmonės patikos ir saugos tarybą. 2023 m. Bendrovė teigė, kad nustato daugiau CSAM nei ankstesniais metais, ir kad padidino personalo, skirtą problemai, nepaisant didesnio pasitikėjimo ir saugos atleidimų.

Richardsonas, C3P informacinių technologijų direktorius, teigė, kad nors X kartais pašalins sąskaitas, kurios yra pažymėtos už tai, kad pažeidžia taisykles aplink CSAM, „nauja paskyra pasirodo per dvi sekundes, taigi, problemos gilumui nėra daug. Tai yra tik tarsi minimumas, į kurį mes čia žiūrime“.
Jis sakė, kad didėjantis priklausomybė nuo dirbtinio intelekto sistemų, skirtų saikingumui, jei X jas naudoja, iš dalies gali būti kaltas dėl tokios priežiūros. Anot Richardsono, AI sistemos gerai rūšiuoja didelius duomenų rinkinius ir pažymi galimas problemas, tačiau šiuo metu sistemos neišvengiamai bus per daug ar nepakankamai vertinami be žmogaus sprendimo pabaigoje.
„Turėtų būti realus atsakymas į incidentą, kai kas nors parduoda seksualinės prievartos vaikų prievartos medžiagą jūsų tarnyboje, tiesa? Mes tam visiškai jautėme nejautrą. Mes susiduriame su išprievartaujamų vaikų pardavimu”, – teigė Richardsonas. „Negalite automatizuoti savo išeičio iš šios problemos“.