关于Discord平台上的儿童安全问题报告

平台上的儿童保护话题引起关注
近期,有关社交平台Discord(迪斯科)在儿童网络安全方面出现问题的报道引发了广泛关注。根据NBC新闻的最新报道,过去数年里,Discord平台被关联到多起成年人利用该平台与未成年人进行交流的案件。据统计,共有35起刑事案件中,嫌疑人在审理前曾多次在平台上与未成年人通信。这些行为违背平台规定,也涉嫌违法。
平台内容监管的难题
虽然根据平台的规则,绝不允许传播未成年人不适当的内容(如儿童色情内容),且此类行为在全球范围内都被严格禁止,但据国家失踪与被剥削儿童中心(NCMEC)披露,2021年至2022年之间,Discord上传的儿童性剥削内容(Child Sexual Abuse Material, CSAM)报告数量激增了474%。
面对复杂的网络环境
NBC指出,虽然此前许多社交媒体平台都曾面对网络儿童剥削问题,但Discord的情况尤为特殊。一方面,它通过各类游戏平台的原生应用深度融入各种游戏生态,形成了庞大的用户基础。另一方面,由于用户自主填写年龄信息的不准确性,加大了监管的难度,导致平台成为某些不良行为的温床。
执法行动与应对措施
据统计,已有额外165起关于成年人在Discord上传送或接收儿童色情内容的案件被移交到法律机构审理,在这些案件中,约91%的嫌疑人已被判罪。国家失踪与被剥削儿童中心(NCMEC)高级副总裁约翰·谢汉(John Shehan)承认,平台上的儿童色情内容呈“爆炸性增长”,并直言:“平台上存在未被遏制的儿童剥削问题。”
平台对儿童保护的责任与挑战
谢汉还指出,NCMEC多次收到来自其他网络平台的举报,称Discord成为儿童色情内容的主要传播场所之一。这一问题部分源于平台对内容的管理机制不足。根据NBC报道,Discord对用户年龄的核查限制较少,自我声明年龄的方式难以保证真实性,加剧了儿童安全隐患。
平台治理现状与未来计划
据Discord官方声明,他们并不“监控每一个服务器或每次对话”,一旦发现问题,会进行调查并采取行动。尽管如此,NCMEC指出,平台对投诉的回应时间逐年增长,从2021年的平均三天延长到2022年的五天,甚至有一些投诉未能得到及时处理。其2022年的披露资料显示,已封禁超过3.7万个因儿童安全违规的账户。平台也会在配合执法部门时,提供IP地址、聊天记录和账户信息等证据。
改善措施与行业呼声
未来,Discord表示将投入“年龄确认技术”,以减少平台上的不良内容。然而,监测组织和执法机构普遍认为,平台应更早地采取有效措施,从一开始就将用户的安全放在优先位置。Inhope组织执行董事德顿·霍华德(Denton Howard)直言:“安全设计应从第一天起考虑,不应等到问题积重难返。”
更多内容与行业动态
完整报道可以在NBC新闻查看,内容涉及成年人如何引诱未成年人加入其服务器,其他机构为减少儿童不良内容所做的努力,以及平台与这些组织的合作关系等。对此,游戏开发公司已向Discord发出请求,待回复后将第一时间补充相关信息。
常见问答(FAQ)
Q: Discord平台上儿童安全问题频发,平台采取了哪些措施?
A: Discord已封禁数万个违反儿童安全规定的账户,并计划引入“年龄确认技术”,以增强用户身份验证,减少不良内容的传播。但在此前,平台的响应速度和监管措施仍有待加强。
Q: 为什么儿童色情内容在Discord上呈现增长趋势?
A: 主要原因包括平台允许不同年龄用户在社区服务器中混合交流、年龄信息难以核实等问题。同时,平台对内容的监控和处理速度不足也起到推波助澜的作用。
Q: 今后平台会采取什么更安全的措施?
A: Discord表示将加强“年龄确认技术”的投入,提升内容监控力度,并与执法部门合作,及时处理相关投诉,确保平台环境的安全与健康。