Stanikomania on Nostr: A propos uciszania kobiet w SM: "Dwóch dziennikarzy The Guardian użyło narzędzi ...
A propos uciszania kobiet w SM: "Dwóch dziennikarzy The Guardian użyło narzędzi AI do analizy setek zdjęć przedstawiających mężczyzn i kobiety w bieliźnie, podczas ćwiczeń, a także podczas badań medycznych z częściową nagością. Odkryli oni, że AI oznacza zdjęcia kobiet w codziennych sytuacjach jako sugestywnie seksualne. Ponadto AI ocenia zdjęcia kobiet jako bardziej „odważne” lub seksualnie sugestywne niż porównywalne zdjęcia mężczyzn. W rezultacie firmy mediów społecznościowych, które wykorzystują te lub podobne algorytmy, ograniczyły zasięg niezliczonych zdjęć przedstawiających kobiece ciała, co zaszkodziło firmom prowadzonym przez kobiety – dodatkowo pogłębiając nierówności społeczne."
Podkreślam: AI OZNACZA ZDJĘCIA KOBIET W CODZIENNYCH SYTUACJACH JAKO SUGESTYWNE SEKSUALNIE. Czyli robi dokładnie to, co społeczeństwo - seksualizuje kobiece ciało bez względu na sytuację i kontekst.
Ten tekst ma dwa lata, jeśli ktosiom wpadło coś aktualniejszego i bardziej in depth na ten temat - uprzejmie proszę się podzielić 😊 Tak czy owak, warto się zapoznać.
(w środku fajny animgif z facetem w staniku 😁 )
nprofile1qy2hwumn8ghj7un9d3shjtnddaehgu3wwp6kyqpqpa06zks3lfxxkl35k0u7s9qdfdd0nc4mcdtkvztqjayqc9wdlumse9dppm (nprofile…dppm) https://archive.is/PNpXOPublished at
2025-03-15 15:00:29Event JSON
{
"id": "48c3c6b212f5ab06871e60e7531a4f1c1884d77afa0b6898533d1a3a1c8c60be",
"pubkey": "6569c0b7bd72d31752748dd8472da70ee26e1aab23d1bdd6983666c113097ff8",
"created_at": 1742050829,
"kind": 1,
"tags": [
[
"p",
"0f5fa15a11fa4c6b7e34b3f9e8140d4b5af9e2bbc35766096097480c15cdff37",
"wss://relay.mostr.pub"
],
[
"proxy",
"https://pol.social/users/stanikomania/statuses/114167043180092441",
"activitypub"
]
],
"content": "A propos uciszania kobiet w SM: \"Dwóch dziennikarzy The Guardian użyło narzędzi AI do analizy setek zdjęć przedstawiających mężczyzn i kobiety w bieliźnie, podczas ćwiczeń, a także podczas badań medycznych z częściową nagością. Odkryli oni, że AI oznacza zdjęcia kobiet w codziennych sytuacjach jako sugestywnie seksualne. Ponadto AI ocenia zdjęcia kobiet jako bardziej „odważne” lub seksualnie sugestywne niż porównywalne zdjęcia mężczyzn. W rezultacie firmy mediów społecznościowych, które wykorzystują te lub podobne algorytmy, ograniczyły zasięg niezliczonych zdjęć przedstawiających kobiece ciała, co zaszkodziło firmom prowadzonym przez kobiety – dodatkowo pogłębiając nierówności społeczne.\"\n\nPodkreślam: AI OZNACZA ZDJĘCIA KOBIET W CODZIENNYCH SYTUACJACH JAKO SUGESTYWNE SEKSUALNIE. Czyli robi dokładnie to, co społeczeństwo - seksualizuje kobiece ciało bez względu na sytuację i kontekst. \n\nTen tekst ma dwa lata, jeśli ktosiom wpadło coś aktualniejszego i bardziej in depth na ten temat - uprzejmie proszę się podzielić 😊 Tak czy owak, warto się zapoznać.\n(w środku fajny animgif z facetem w staniku 😁 )\nnostr:nprofile1qy2hwumn8ghj7un9d3shjtnddaehgu3wwp6kyqpqpa06zks3lfxxkl35k0u7s9qdfdd0nc4mcdtkvztqjayqc9wdlumse9dppm \n\nhttps://archive.is/PNpXO",
"sig": "ee130676ee73218ad1bc4b7411a745d0bd65b0f2f9a523afcab92bc1da314f24285c9d76cda9cd23c65fe468afba5d41dad2b1ff5d914a2558f9bdb12c0e2434"
}