第1821章 我们做,但要有底线 (第2/2页)
雯思考着这个构想。
听起来很先进,但……
“这涉及用户隐私吧?”她问。
“对,所以陈总让我们先做伦理研讨。”李明说,“技术上是可行的。
我们可以记录用户的搜索历史、点击行为,建立偏好模型。
但这个数据怎么用,边界在哪里,得想清楚。”
当天下午,贾瀞雯组织了伦理研讨会。
参会的有技术核心、产品经理、法务顾问,还有新成立的用户体验团队。
会议室里争论得很激烈。
技术负责人张涛说:“从技术角度看,个性化是未来。
互联网信息太多,用户需要过滤。
我们帮他们过滤,这是服务。”
产品经理王磊摇头:“但你怎么知道用户想要什么?靠历史行为推测,可能推测错。
而且用户会担心:我的搜索记录被保存,会不会泄露隐私?”
法务顾问李律师推了推眼镜:“法律上目前没有明确规定。
但用户隐私是敏感问题。
如果我们要做,必须有严格的数据保护措施,还要给用户选择权——要不要开启个性化。”
用户体验团队的刘明说:“我做过用户调研。
大部分用户希望搜索结果更相关,但确实担心隐私。
如果能有折中方案就好了。”
贾瀞雯听着大家的讨论,在白板上写下关键点:技术可行性、隐私边界、用户选择权、数据安全。
“这样吧。”她最后说,“我们做,但要有底线。
第一,数据必须匿名化处理,不关联具体用户身份。
第二,用户可以选择是否开启个性化功能,默认关闭。
第三,数据加密存储,定期清理。
第四,明确告知用户我们收集什么数据,怎么用。”
“如果用户选择关闭,还收集数据吗?”王磊问。
“不收集。”贾瀞雯说,“只有开启的用户,我们才记录行为。
而且用户随时可以关闭,关闭后数据立即删除。”
【跪求礼物,免费的为爱发电也行!】