CXPLAY on Nostr: 控制信息危害其实就是对抗信息系统滥用, ...
控制信息危害其实就是对抗信息系统滥用, 在社交媒体中就是对抗垃圾内容和有毒言论, 既是所谓的 "反极端审查". 现代的自动化内容审查需要更多结合所谓 "语义分析"(从关键词到信息熵), 我们的文字和多媒体只是造成信息危害的元凶的载体(媒介, 宿主), 可惜我们目前也只能直接控制载体的传播才能间接遏制滥用, 这也同时损害了普通人对这些载体的自由使用. 并且, 由于现今的内容审查系统对载体的过度干预, 又加速了模因的演化乃至加密技术的普及, 使得审查更难进行. 如果无法解决根本问题, 那最后只有不断升级内容审查强度. 然而导致信息滥用中的「异常模因」的演化速度比普通人产生的一般模因要快太多, 我们的审查系统可能会是这条路上首先走上 "极端" 的一方.
这些问题目前看来最有希望的是将大型语言模型加入到内容审查系统中, 辅助甚至代替人类审查员的工作. 但是同样的, 有能力承担和维护这种中间设施的系统不会很多. 最早可能依旧会在电子邮件系统里看到(Gmail, Yahoo, Outlook?). 目前的电子邮件依旧是内容审查战线的最前沿, 然后才是社交媒体.
在电子邮件管理员之间有一段关于审查的表达广为流传(传说来自 4chan /g/ 板块):
> Administering a mail host is sort of like being a nurse; there's a brief period at the start when the thought of seeing people's privates might be vaguely titillating in a theoretical sense, but that sort of thing doesn't last long when it's up against the daily reality of shit, piss, blood, and vomit.
管理邮件主机就像当护士一样, 刚开始从理论上讲会有一小段时期, 看到别人的私处可能会让人隐约感到兴奋. 但当每天都要面对屎, 尿, 血液和呕吐物时, 这种感觉很快就会消失.
> Now that I think about it, administering a mail host is exactly like being a nurse, only people die slightly less often.
现在想想, 管理邮件主机确实就像当护士一样, 只不过是死的人稍微少点.
要用 AI 实行内容审查, 我们可能要指望它拥有永远一致的 "道德" 准绳, 尚且不论如今的 AI 是否拥有 "道德" 这种人类社会的价值观, 应用中, 可能也只是对 "极端" 的定义转变成了对 "道德" 的定义.
还是那句话, 我的高尚比你(AI)的高尚卑劣多少?
PS: 计算机... 伦理学?
Published at
2024-05-16 15:45:56Event JSON
{
"id": "3e9e8684afd4a25d00887a4f4dc81bb7d19962d32871098a5f746cde0bf64d9f",
"pubkey": "434f97993627f1e61f14eeaf60caa8cfdcec10a592caff8250c825252d548c15",
"created_at": 1715874356,
"kind": 1,
"tags": [
[
"e",
"b4310084d4ee7dec4ef51cc4675865833687bc97331b987c4eb5e092364debba",
"wss://relay.noswhere.com/",
"root"
],
[
"e",
"b4310084d4ee7dec4ef51cc4675865833687bc97331b987c4eb5e092364debba",
"wss://relay.noswhere.com/",
"reply"
]
],
"content": "控制信息危害其实就是对抗信息系统滥用, 在社交媒体中就是对抗垃圾内容和有毒言论, 既是所谓的 \"反极端审查\". 现代的自动化内容审查需要更多结合所谓 \"语义分析\"(从关键词到信息熵), 我们的文字和多媒体只是造成信息危害的元凶的载体(媒介, 宿主), 可惜我们目前也只能直接控制载体的传播才能间接遏制滥用, 这也同时损害了普通人对这些载体的自由使用. 并且, 由于现今的内容审查系统对载体的过度干预, 又加速了模因的演化乃至加密技术的普及, 使得审查更难进行. 如果无法解决根本问题, 那最后只有不断升级内容审查强度. 然而导致信息滥用中的「异常模因」的演化速度比普通人产生的一般模因要快太多, 我们的审查系统可能会是这条路上首先走上 \"极端\" 的一方.\n\n这些问题目前看来最有希望的是将大型语言模型加入到内容审查系统中, 辅助甚至代替人类审查员的工作. 但是同样的, 有能力承担和维护这种中间设施的系统不会很多. 最早可能依旧会在电子邮件系统里看到(Gmail, Yahoo, Outlook?). 目前的电子邮件依旧是内容审查战线的最前沿, 然后才是社交媒体.\n\n在电子邮件管理员之间有一段关于审查的表达广为流传(传说来自 4chan /g/ 板块):\n\n\u003e Administering a mail host is sort of like being a nurse; there's a brief period at the start when the thought of seeing people's privates might be vaguely titillating in a theoretical sense, but that sort of thing doesn't last long when it's up against the daily reality of shit, piss, blood, and vomit.\n管理邮件主机就像当护士一样, 刚开始从理论上讲会有一小段时期, 看到别人的私处可能会让人隐约感到兴奋. 但当每天都要面对屎, 尿, 血液和呕吐物时, 这种感觉很快就会消失.\n\n\u003e Now that I think about it, administering a mail host is exactly like being a nurse, only people die slightly less often.\n现在想想, 管理邮件主机确实就像当护士一样, 只不过是死的人稍微少点.\n\n要用 AI 实行内容审查, 我们可能要指望它拥有永远一致的 \"道德\" 准绳, 尚且不论如今的 AI 是否拥有 \"道德\" 这种人类社会的价值观, 应用中, 可能也只是对 \"极端\" 的定义转变成了对 \"道德\" 的定义.\n还是那句话, 我的高尚比你(AI)的高尚卑劣多少?\n\nPS: 计算机... 伦理学?",
"sig": "9e05914fafbfb50c44c89aef450b0bf5f6715414c8e7020c1a83b4b6ed67c77a46962080bd3f90bef7b16f1fd2b89d53da0ef08c6f9992edb840738d22a9d3d1"
}