据The Verge报道,科技公司的一项主要责任是监测其平台上的内容是否存在儿童性虐待材料(CSAM),如果发现任何内容,他们必须依法向美国国家失踪和被剥削儿童中心(NCMEC)报告...Facebook的一份培训文件指示内容审查员,当他们不知道疑似CSAM照片或视频中某人的年龄时,要“站在成年人一边”...该政策适用于内容审查员无法轻易确定疑似CSAM照片中的主体是未成年人("B")还是成年人("C").........
特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅提供资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任。(反馈错误)