找回密码
 注册
搜索
热搜: 活动 交友
查看: 11082|回复: 0

AI无处不在 且正被极权利用

[复制链接]

1万

主题

1万

回帖

23万

积分

管理员

热心会员

积分
238733
发表于 2024-6-14 23:49:10 | 显示全部楼层 |阅读模式
來源:大紀元


1.jpg
苹果软体工程高级副总裁费德里吉(右)、苹果机器学习和人工智能战略高级副总裁·詹南德雷亚(中)和CEO库克(左)在2024年6月的苹果全球开发者大会上。(Nic Coury / AFP)


【大纪元2024年06月13日讯】(大纪元专题部记者吴瑞昌报导)科技巨头们为了让他们开发的AI模型更加强大,需要更多的资料和资源去支持。这迫使其将目标转到个人的电子设备和社交平台上,但这一做法已让不少民众开始产生抵触,甚至担心个人隐私被盗用或滥用。中共也在利用这些强大的AI,去增强它们的宣传工作。

苹果(Apple)在6月11日举行2024年WWDC大会,大会中公布了许多苹果产品与AI结合的成果。报告中,他们讲述苹果的Siri更新后能像ChatGPT一样听懂自然语法,且能够透过简单的语言指令,帮你进行快速修图、撰写或修改电子邮件、表情符号和图像的生成等。

此外,Siri还会根据你手机中的资料、文章、文件等进行整合,回答各种问题,就像变成“私人助理”一样,但这些功能只有在iPhone 15 Pro以上的手机、拥有M系列芯片的平板电脑和Mac电脑才能使用,且日后这些AI的功能会逐渐增加。
另外,苹果这次还跟OpenAI合作,让ChatGPT直接整合到Siri里面,人们可以改用ChatGPT的GPT-4作为AI引擎。虽然苹果多次强调,这次AI的更新并不会透过云端的服务器进行运算,所有的功能都是依靠手机上的芯片来实现。因此,个人的隐私跟资料会受到“很好的保护”,OpenAI则不会储存任何资料。
民众担心个人隐私会被滥用
尽管苹果公司不断保证个人的隐私跟资料会受到“很好的保护”,但仍有不少人担忧个人的隐私和资料,仍会被大科技公司拿来训练AI,甚至利用这些资料做一些不为人知的实验,因为这个资料太诱人。
特斯拉CEO马斯克看完苹果的2024年WWDC大会后,立马在X平台上发表好几则贴文表达自己的看法。马斯克的这些看法引来许多网民的赞同和讨论,而他们大多对于苹果的做法感到恐惧。


他说,“如果苹果在作业系统整合OpenAI,那么所有的苹果设备将被禁止进入自己旗下公司,因为这是不可接受的安全违规行为。另外,任何访客都必须在门口检查他们的苹果设备,并将这些设备放在法拉第屏蔽罩当中,以屏蔽这些设备的电磁波进出。”
接着马斯克严厉批评苹果和OpenAI在隐私方面的问题。他表示,苹果无法打造自己的AI,“但却表示能以某种方式确保OpenAI保护您的安全和隐私,这显然是荒谬的!一旦苹果公司将你的资料交给OpenAI,苹果就不知道到底发生了什么事,但他们的做法正在把你卖到河的下游去。”
他还表示,目前苹果这种做法,“就是‘同意’共享数据的问题,但没有人真正阅读条款和条件”、“我们现在想像一下如果以这种方式训练的AI,那AI们的力量得到极大的增长。”
除了马斯克批评之外,一名X平台上的知名博主“狗狗设计师”(DogeDesigner)也批评说,“大家还记得著名影星史嘉蕾·乔韩森(Scarlett Johansson)曾要求OpenAI不要使用她的声音,但OpenAI还是克隆和使用它了。现在大家想像一下,他们可以用您的手机资料做什么,即使您不允许他们使用它。”
这则贴文引来许多网民的讨论,有人认为这会让自己的隐私被AI公司拷贝和利用,若不肖人士使用这些资料进行犯罪,那人们到法庭自证清白时,就变得十分困难。(延伸阅读:巴菲特:AI类似核武像精灵 让我十分害怕
大家除了担心手机上的资料会被用于训练AI之外,也开始担心自己的社交软件上的资料被使用。此前,谷歌和OpenAI曾被披露对YouTube的影片进行转录以便用来训练AI,现在Meta对英国和欧洲用户说,他们在Facebook和Instagram的资料,在6月26日起就会被用于训练Llama AI语言大模型。


尽管Meta称训练用的资料包括公开发表的贴文、照片或人们跟AI聊天机器人的聊天内容等,但不包含用户的私人讯息内容,且用户可以对Meta提出异议。不过用户需要填写复杂表格和个人电子信箱等资料,且可能遭到Meta否决申请。
目前,多个倡导数位权利的欧洲运动组织和个人,对于Meta的做法提出质疑,并向十多个国家隐私监管机构投诉。爱尔兰资料保护委员会(确保Meta遵守欧盟资料法)则明确表示,他们已经收到投诉,并对此展开调查。
日本电子工程师荻野悟(Satoru Ogino)在6月11日对大纪元表示,“ChatGPT基本依靠强大GPU算力和海量数据库的支持,这些大都是在云服务器上运行。若Siri要实现私人助理功能,不仅需要收集用户讯息还需强大的算力,这就可能要连上ChatGPT云服务器,因此苹果很难保证这些资料不会被拿走。”
AI沦为极权政府的宣传工具
人们除了要担心个人隐私被大科技公司利用来训练AI之外,还需担心极权政府或不肖人士滥用AI技术,宣传它们扭曲且邪恶的价值观,和捏造虚假的讯息,以达欺骗、洗脑民众和其它不为人知的目的。
美国参议院的情报委员会主席马克·华纳(Mark Warner)、众议院中国(中共)问题特别委员会民主党首席议员克利胥纳莫提(Raja Krishnamoorthi)、众议院共和党会议主席埃莉斯·斯特凡尼克(Elise Stefanik)在6月6日共同呼吁对NewsBreak平台进行更多的审查,并表达了他们的担忧。


其主要原因是NewsBreak在6月5日被爆出多次散播虚假或严重错误的新闻内容。该平台透过AI对来自路透社、美联社、CNN、福克斯(Fox)新闻等主流媒体授权的新闻进行重新编辑后发给用户,但多次出现严重的内容错误,曾遭到新泽西州布里奇顿警察局批评,还被一些媒体投诉用虚假署名抄袭他们的报导。
另外,NewsBreak曾被曝光与中国投资者和中共喉舌有密切联系和往来,且该公司在中国的北京和上海设有分部,主要负责该平台的软体测试开发和AI算法。
该新闻信息平台是由“一点资讯公司”在美国创立,而“一点资讯”曾在2017年被中共喉舌《人民日报》赞扬过,说其能够把符合中共标准的资讯,精准传达到数亿中国人的手机和电脑装置上。
马克·华纳参议员表示,“NewsBreak是唯一一家不受控制的,且人为生成的新闻公司,更可怕的是它与敌对外国政府有着深厚的联系。这又是来自相关国家的技术构成严重威胁的一个例子,我们需要采取方法去应对这种威胁,否则我们无法与这类的公司进行抗衡。”
克里希纳莫蒂众议员在看完一份参考文献后表示,“这份报告揭露一个严重的问题,NewsBreak不仅与中共媒体有联系,也与一个协助中共的实体也有联系。”
另外,斯特凡尼克议员表示,IDG资本对NewsBreak的支持表明该应用程式“值得加强审查”。“我们不能允许我们的外国对手获取美国公民的数据,并将其用作武器来损害美国的利益。”
斯特凡尼克指的IDG资本在今年2月被美国五角大楼列入涉嫌与中共军方有合作的名单当中,但IDG资本“极力否认”自己与中共有关系。IDG资本在1993年被引入中国,成为第一家进入中国市场的全球投资公司,同时投资百度、腾讯和小米等多家与中共关系密切的中国科技公司。
荻野悟表示,“中共为了更方便混淆视听,不仅利用了AI产生大量假新闻,还用来分析用户习惯,从而达到引导用户的认知。若人的独立思考能力不强就容易陷入中共的谎言之中,因此各国政府要尽早剔除与中共相关的软件和媒体,才能有效避免民众受骗上当。”(延伸阅读:报告:未来3至8年 全球或面临10大潜在威胁
中共企图用AI和高科技扭曲现实
除了议员和普通民众的担忧之外。5月底,OpenAI在部落格(Blog)上表示,过去三个月里他们破获五起秘密利用OpenAI开发的AI技术,试图操控或争夺世界各地的话语权,希望AI能够不在暴露自己的真实身份或意图的情况下,达到操纵公众舆论和影响地缘政治的结果。
这五起案件分别是俄罗斯、中共、伊朗和一家位于以色列的私人公司做的。他们利用OpenAI强大的语言模型,快速生成评论、文章、社群媒体个人档案,以及用于研究编程、除错机器人和网站程式码、翻译校对文字等。
部落格明确指出中国的“垃圾伪军”(Spamouflage)”利用OpenAI的AI模型去研究公共社交媒体活动,之后再生成中文、英文、日文、韩文等语言的虚假讯息,散布到X、Medium和Blogspot等平台上,同时还试图管理数据库和网站的代码,包括不知名的网域revescum[.]com。
另外,俄罗斯的“语法错误”(Bad Grammar)组织、俄罗斯的“分身行动”(Doppelganger)组织、伊朗的国际虚拟媒体联盟(IUVM)也被OpenAI点名滥用AI。它们将大量虚假消息或极端思想翻译成多国语言后,散播到Telegram、X、Facebook和其它网络平台上,进行宣传和洗脑。
除此之外,澳洲智库“澳洲战略政策研究所”(ASPI)在5月2日发表一篇题为《中国特色的真相与现实》(Truth and reality with Chinese characteristics)的报告。
报告介绍了中共的宣传系统是如何用“民营”的中国企业开发的行动游戏、AI、沉浸式技术(VR)、海外网购平台,以至一切可动用的资源和高科技技术,对国内和国外的民众进行大量的数据收集,帮助中共更好了解这些人,再对人们宣传中共的资讯,以达到扭曲现实的目的和扩大其在世界的影响力。

(记者张钟元、王佳宜对本文有贡献)

您需要登录后才可以回帖 登录 | 注册

本版积分规则

手机版|阿波罗网

GMT+8, 2024-11-22 21:55

快速回复 返回顶部 返回列表