今天 FreeBuf 有篇编译的文章( https://www.freebuf.com/articles/neopoints/196715.html ),其中主要提到目前算法的一些弊端。
闲来发点牢骚,介意的就在这里说再见吧。
其实算法在我们日常生活中已经非常常见了,给你推广告、推资讯,但确实出现过类似原文提到的问题,就是基于价值观的判断。
算法毕竟是死的,它没办法判断什么是合规什么不合规,需要人为的增加限制。不少资讯、视频平台因为推送不和谐的内容被要求整改,至少在我国对于这种算法推荐机制的限制还是很多的,但远远不够。
试想一个场景,当你打开手机 APP、电脑网页时,根据算法判断或者某种约束性的东西,终端所呈现的可能是算法(或者其他对象)想让你看到的,而你接触到的东西又是什么?
现在的舆论环境很糟,推荐算法确实能够根据兴趣推荐合适的内容,但也间接屏蔽掉了很多内容。
互联网的发展给生活带来很多便利,但却又过于关联我们的生活。对于这些,总感觉有些莫名的不安……
1
nfroot 2019-02-27 16:18:38 +08:00
当算法觉得你想死……
这个没啥问题啊,想死是很常见的事情,当然你的算法要写好一点。 |
2
MisakaTang 2019-02-27 16:42:08 +08:00
"至少在我国对于这种算法推荐机制的限制还是很多的,但远远不够","但却又过于关联我们的生活"没太懂楼主是觉得限制太多呢还是太少呢,如果是觉得算法会支配你的生活的话,这也是你主动选择的结果吧.而不想这样生活的人自然也会去打破这种环境.
|
3
Andy514 OP @MisakaTang 不只是针对我自己。而是父母、孩子对于网络上的东西分辨能力还不够,潜移默化中很容易产生不当的引导。而且这个度非常模糊,不只是对与错那么简单,而且针对不同人不同环境都会起到不同的反响。这些是创造这些算法的人暂时还没办法去掌控的。
|
4
Greendays 2019-02-27 16:57:08 +08:00
所以有的时候还是觉得传统论坛有意思,里面的老哥说话都好听
|
5
across 2019-02-27 17:00:48 +08:00
机器学习 -> 人类娱乐 √
机器学习 -> 人类学习 × |
6
MisakaTang 2019-02-27 17:35:02 +08:00 1
"父母、孩子对于网络上的东西分辨能力还不够" 在我的观点来说这就像机器学习你喂的数据太少一样,分辨能力不够也就是不能正确的处理噪声,在这个基础上我更倾向于不去做所谓的"屏蔽"来判断好坏而是让个体接受足够的信息,在接触的信息足够多之后人自然也能分辨这个"度"在哪里,毕竟"谁也不能扮演上帝的角色",而且每个人的三观也是不同的.
|