959网络
您的位置:网站首页 > 互联网资讯 > 正文

前互联网行业大佬爆料:当你躺在床上刷手机数以千计的公司都在对你

作者:佚名 来源: 日期:2023-3-18 19:48:00 人气: 标签:互联网大爆料

  如果你在百度上搜索了“性价比最高的电脑品牌”。很快,当你打开抖音、淘宝、微博或是其他软件平台时,你就会收到有关电脑的相关推送和广告。

  如果我们把购买行为看作一个完整的过程,这些广告和视频信息推送在多大程度上扮演了服务的角色?又在多大程度上承担了的作用呢?

  2020年9月,一部名为《资本主义:智能陷阱》的纪录片在 Netflix 平台,片中采访了谷歌、Facebook、Twitter、Instagram、Pinterest 等几乎所有社交网络大厂的内部人士,指出现代商业竞争逐渐从一开始的抢夺客户转变为培养客户,甚至是客户。

  处于互联网下的人们,正在被人工智能、大数据、算法模型所控制,导致人类社会出现最近几年的和混乱,如果继续演化下去,后果将不堪设想......

  现代社会,互联网技术为世界创造了一些美好的东西,它们让失去联系的家人重聚,找到器官捐赠者,为整个世界带来了有意义、系统的变革,但与此同时,它的负面影响却被过度看轻了。

  硅谷的前50年,行业制造产品,将硬件、软件卖给顾客,而在过去的10年间,硅谷最大的公司一直涉足贩卖用户的。

  我们今用的社交软件中,没有一个产品需要用户在使用时付钱,我们用谷歌搜索信息,用 Facebook 了解好友的动态,用 Instagram 分享自己的生活,但我们没有意识到的是,这些产品无一不在竞争用户的关注。

  他们的商业模式就是让人们的注意力持续吸引在屏幕上,产品本身并不是免费,取而代之的是广告商们为此买单。

  换言之,广告商是顾客,它们付钱,交换给用户展示广告的时间,而普通大众就成为了被销售的目标商品。

  事实上,我们在网络上所做的一切都被着、追踪着、评估着,具体到你的目光停在哪一张图片上看了多久?你是哪一种性格?你的神经属于哪种类型?

  而大型技术公司对每个人去的每一个地方进行无限追踪获利,做出相应的行为模型,以预判用户要做什么,对什么感兴趣,以及我们是怎样的人。

  当你下滑页面刷新,最就是新的内容,再往下再刷新又是新的,每一次都是,在心理学上称之为“正积极强化”。

  它的原理就像是,你永远不知道下一条讯息是什么,并借此在你的脑中植入一个无意识的习惯——我只要用手下拉,就能获得些什么,并且这个“品”处于极具力的“未知”状态。

  举例来看,当我们在使用一些社交软件时可能会收到推送消息,「你的朋友@了你」,或是「你的朋友提到了你」,它完全可以在推送信息中展示完整的信息,但往往只有一个提醒。

  这几乎是基于人性之上的「精心设计」,在不知不觉之中,他们收获了更多的用户注册、更高的参与度,能让你邀请更多的人,以及看更多的广告。

  我们P图,添加滤镜,渴望收获更多的「点赞」和「评论」,但实际上我们的生活并不需要交由陌生人审视,或是每五分钟就获得一次「社交认可」。

  我们已经从信息时代过渡到了虚假信息时代,作为人类,我们几乎已经失去了对这些系统的控制,因为是它们在控制我们看到的信息,而不是我们在控制他们。

  著名篮球运动员凯里欧文曾说他相信地球是平的,后来又道歉:“很抱歉我相信了这个,我无意人们。”

  基于对人类认知的不断加深,算法每一天都在变得更加聪明。今天它们人们相信地球是平的,那么明天它们就会你相信另一个完全虚假的事情。

  有一项麻省理工的研究显示,推特上的虚假新闻要比线倍。试想一下,当一个人有着高于另一个人6倍的优势,这个世界会变成什么样?

  2016年美国总统前,一则论的在网络上流传甚广。没有者、没有任何权威性的报道,却对当事人造成了巨大的,这就是假新闻的力量。

  中说一家披萨店的地下室经营着儿童易,犯罪网里涉及了很多人,其中就包括了希拉里和一些党高层人物。

  随后,平台算法将“披萨门”新闻大量精准推送给了「论爱好者」和川普的支持者,由此掀起轩然大波。

  甚至有一位28岁的青年因为相信了这则,持枪抢劫了这家披萨店,所幸没有造成伤亡。事后警方介入调查的时候才发现,这个所谓的“贩卖儿童”根本连地下室都没有。

  从「披萨门」事件中我们可以看到,社交工具的推送算法极大地增加了的极易性,导致用户的信息接受面变得狭窄,接触的内容和用户都是和自身喜欢同一类内容的人,久而久之,用户就会觉得自己看到的就是,看不到也接受不了和自己持不同观点的人。

  去年新冠疫情在海外爆发的时候,各种极端屡见不鲜,比如“多喝水能将新冠病毒从你身体中冲走”、“这是计划的事件,创造了这个病毒来模拟世界将会如何反应”、“根本没有人生病,一切都是”,而这些虚假反智言论却积累了5200万人参与其中......

  要知道,Facebook 有万亿个新闻推送贴,同样在微博上,我们也会碰到未经核实的假新闻大行其道,引发激烈争论。未受监管的信息被海量传送给世界各地的人,而它们的出发点往往只是为了卖出更好的价钱,并借此获利。

  大批量的信息已经形成了我们的和文化,而大多数人对此一无所觉。如今创造出的工具,正在开始正常运转的社交纽带。

  当你登陆 Google,在搜索框中输入“气候变化是”,你会看到,根据你所居住的地区不同会出现截然不同的结果。在某些城市,你会看到“气候变化是一场”,有的则是“气候变化是对自然的”。

  这个功能提供的不都是气候变化的,而是算法基于对你个人兴趣的了解之后,自动推荐了它觉得你最有可能点开的词条。

  如果大数据知道你是个怀疑论者,算法就会告诉你,气候变化就是场;反过来,如果大数据告诉算法你是个环保主义者,那它就疯狂地向你推荐气候变化的危害……

  对于任何新的信息,在你还没形成思考的时候,算法就在一开始帮你决定了倾向。而伴随着你浏览的相关内容不断增多,原先工具向你的观点也会逐渐强化。

  在这个过程中,我们处理情绪的能力不断减弱,再也无解与自身所创造的世界观相悖的信息,也就自然而然地产生了。

  与此同时,情绪基于社交网络上泛滥的信息进行和放大,的模仿变得容易复制,推荐算法在不经意之间增加了个人行为的极端化以及社会意识的两极分化。

  其中最明显的案例就是2018年,缅甸一条“少数族裔佛女孩”的假新闻,经过数天时间发酵,好无阻拦地在 Facebook 上传遍缅甸。

  在缅甸,人们普遍使用 Facebook,而 Facebook 真的为军人和其他不良人士提供了一种控制言论的新手段,并协助针对罗兴亚族穆斯林的行动。

  铺天盖地的迅速点燃了缅甸国内对移民而来的少数群体的,很快,一场声势浩大的针对活动席卷而来:大、焚烧整个村庄、违反主义的大规模和其他严重犯为,最终导致了70万罗兴亚族穆斯林逃离这个国家。

  人们只认同自己认同的信息,交流也接纳,在各自的信息茧房里,孤独、疏远、更加两极分化。

  “我们很可能会因为故意毁掉我们的文明;我们或许无法应对气候变化的挑战;我们或许会世界的,最后衰落成一种奇怪的技能障碍;我们或许会毁掉全球经济;我们或许会无法存活......”

  大数据时代的到来让各种 APP 侵占人们的生活,窃取相关数据,其背后隐藏着各种心理学、学及营销学知识和大数据算法,源源不断地创造热点影响人的价值观,而人类显然还没有做好面对人工智能的降维打击。

  正如纪录片中说的那样:“进入生活的一切强大之物,无不具有弊端。”当一项先进技术被世界,全人类裹挟其中而未知,未来将处于一片之中。

  

读完这篇文章后,您心情如何?
0
0
0
0
0
0
0
0
本文网址:
下一篇:没有资料