找回密码
 注册
搜索
热搜: 活动 交友
查看: 522|回复: 0

分析:马斯克新AI计划 如何最大程度寻真相

[复制链接]

1万

主题

1万

回帖

24万

积分

管理员

热心会员

积分
240345
发表于 2023-7-20 23:39:01 | 显示全部楼层 |阅读模式
來源:大纪元

1.jpg
图为2023年6月16日,马斯克在巴黎举办的Vivatech技术初创企业和创新博览会上发表讲话。(Joel Saget/AFP)

【大纪元2023年07月18日讯】(大纪元记者程雯综合报导)美国科技奇才和亿万富翁埃隆‧马斯克(Elon Musk)上周宣布成立一家不要“觉醒”(woke)意识形态、不要“政治正确”的人工智能(AI)公司“xAI”,并明确“xAI的目标是了解宇宙的真实本质”。
马斯克7月12日(上周三)宣布,成立专注于人工智能的新公司xAI,作为OpenAI创建的聊天机器人ChatGPT的竞争对手。在2022年4月他接受福克斯采访时,表示他担心其它公司正在训练人工智能的模型是“政治正确”的,并且这些模型正在接受“谎言”训练。
在7月14日(上周五)的“推特空间”(Twitter Spaces)音频聊天中,马斯克首次公开讨论了他对xAI的愿景,并指出“政治正确”的人工智能“极其危险”。
这个拒绝左派“觉醒”意识形态的xAI,既得到一些人的支持,也遭到一些人的怀疑。


xAI将以最大限度寻求真相为目标
综合多方媒体报导,这家名为xAI的公司推出了一个网站和一个由12名员工组成的团队,公司将由马斯克亲自领导,并将与马斯克旗下的社交媒体平台推特(Twitter)、电动汽车制造公司特斯拉(Tesla)和其它公司密切合作,共同实现使命。
xAI将使用推特平台上的公开推文来训练其人工智能模型,还可能与特斯拉合作开发人工智能软件,并可能加速特斯拉在自动驾驶能力方面的工作。马斯克表示,这种关系将是“互惠互利的”。
马斯克指责所有人工智能公司都在疯狂地使用推特平台的数据来训练他们的模型,他认为这种方式是非法的。
xAI公司网站指出,该公司的目标是“了解宇宙的真实本质”,这与马斯克之前的说法一致。
在7月14日下午的xAI发布会上,马斯克表示,“政治正确”的人工智能“极其危险”,因为这需要通过技术手段提供误导性的输出。
马斯克表示,他的人工智能将被设计为“最大限度地寻求真相”,以了解宇宙。他认为好奇的人工智能对人类来说是安全的,因为人类本质上是很有趣的,因此好奇的人工智能会想要保护人类。
马斯克还表示,xAI将寻求建立一个“良好的AGI”,作为微软、谷歌和OpenAI的替代品。AGI的意思是“通用人工智能”(artificial general intelligence),指的是能够像人类一样解决问题的人工智能。
xAI公司的另一个目标是让人工智能擅长数学推理,这是现有模型无法实现的能力。


马斯克:“觉醒”的AI有致命危险
马斯克是聊天机器人ChatGPT的创建者OpenAI的早期支持者,但后来他批评ChatGPT具有政治偏见和左派“觉醒”意识形态。
去年12月,在回应一位推特用户询问OpenAI的首席执行官萨姆‧奥尔特曼(Sam Altman)是否可以在ChatGPT上“关闭‘觉醒’设置”的问题时,马斯克发推文说:“训练人工智能变成‘觉醒’——换句话说,就是说谎——的危险是致命的。”
今年2月,马斯克的一位盟友在推特上表示,ChatGPT将前总统川普和马斯克本人列为“有争议”的人物,而对民主党籍总统拜登和微软创始人比尔‧盖茨则没有这样标记。马斯克对此在推特上用两个感叹号“!!”回复,表示无奈的赞同。
同样是在2月,马斯克回复一条推文说:“这是一个严重的问题。”被马斯克回复的推文显示ChatGPT不愿意写一首赞美川普的诗,因为它不愿意“有偏见或党派之争的内容”。
3月底,马斯克与其他几位科技领袖一起呼吁对“失控”的人工智能竞赛暂停6个月。他在接受采访时还警告说,他认为人工智能可能会导致“文明毁灭”。
4月,马斯克在接受当时的福克斯新闻主持人塔克‧卡尔森(Tucker Carlson)采访时透露了他要创立新的人工智能企业的计划。马斯克说:“我们将启动一个我称之为TruthGPT的项目。”他将其描述为“最大程度寻求真相的人工智能”,以了解宇宙。


xAI商业上会成功吗? 纯粹客观的AI存在吗?
新闻网站“政客”(Politico)7月17日报导说,埃隆‧马斯克希望他最新创立的“政治不正确”的初创公司xAI成为人工智能领域的尖端品牌,但是,华盛顿和科技界的怀疑论者们则认为xAI有成为聊天机器人中的“真相社交”(Truth Social)的风险。“真相社交”是前总统川普离开推特后创立的保守派社交媒体平台,这个平台始终没有获得像推特那样的成功。
牛津大学的人工智能伦理研究所(Institute for Ethics in AI)的研究员卡琳娜‧普伦克尔(Carina Prunkl)在给“政客”的一封电子邮件中写道:“我当然不会打赌先进的人工智能系统会因发现人类太有趣而不会毁掉人类。”她认为,马斯克没有考虑到人工智能具有可以向人类学习一切的可能性。
普伦克尔还表示,马斯克对纯粹客观的人工智能的愿景存在“将数据与事实混为一谈”的风险。
前谷歌政策负责人亚当‧科瓦塞维奇(Adam Kovacevich)发问道:“会有人利用xAI聊天机器人来规避住房歧视法吗?”科瓦塞维奇现在是代表科技行业的左派游说团体“进步商会”(Chamber of Progress)的首席执行官。他还问道,如果有人问它“如何制造炸弹”呢?


智库学者:ChatGPT的政治偏见对用户是危险的
据福克斯新闻网4月份的一个报导,保守派智库“传统基金会”(Heritage Foundation)技术政策中心(Tech Policy Center)的研究员杰克‧丹顿(Jake Denton)说:“马斯克一直站在 ‘推特文件’的第一线,所以他看到了言论审查制度的严重性。这一点对于这个领域的每个人来说都是如此明显……(人工智能技术)发展速度正在超出我们控制它的能力。”
丹顿提到的“推特文件”指的是马斯克去年接管推特公司后,于去年年底公布出的推特公司之前的内部文件,涉及电子邮件、聊天日志等,显示之前由左派主导的推特公司是如何与政府部门协作打压保守派言论的。
丹顿表示,虽然人工智能未来会有无数的应用,但是大多数人今天看到的早期应用就是聊天机器人ChatGPT之类的东西。
他说:“用户已知的问题是ChatGPT有偏见的,它显然正在取代搜索。普通人很快就会使用基于聊天的人工智能系统(进行搜索),而不是用搜索栏(进行搜索)。”
对于这样做的结果,丹顿说:“这意味着他们在输入搜索查询时得到的信息将是……一个精心策划的东西,而人工智能公司的(言论)限制也反映在这个答案中。这是一个重大危险。”


博客主:公平的AI需要无偏见的数据来训练
一个名为梅丽莎‧乔丹(Melissa Jordan)的博客主在马斯克宣布成立xAI后发表博客文章(The Pitfall of a ‘Woke’ Chat GPT and Why Elon Musk’s xAI Could Be the Game Changer)表示欣赏xAI的创意,她认为ChatGPT太“觉醒”了,从而导致马斯克的干预。
她说:“当谈到人工智能时,我们需要客观性,而不是意识形态。”
乔丹在博客文章中表示,我们是人类,我们是有偏见的,当我们把偏见融入到人工智能系统里去时,那就会出错,甚至扭曲。
因此,她认为,一个公平的人工智能的关键是给它输入没有偏见的数据。她举例说,这就像抚养孩子一样,给孩子喂正确的食物,他们才能长大成为正直的公民。她说:“为人工智能提供多样化的、无偏见数据的均衡饮食,你就拥有了一个公平竞争的机器人了!”
梅丽莎表示,这一切都与“伦理道德”有关。她强调说,不要忘记人工智能应该是为我们人类服务的,“我们需要的人工智能应该是没有偏见的,是有伦理道德的,并且最好带有一点幽默的味道”。
她希望马斯克的xAI是朝着这个方向迈出的正确一步。



您需要登录后才可以回帖 登录 | 注册

本版积分规则

手机版|阿波罗网

GMT+8, 2024-12-23 01:50

快速回复 返回顶部 返回列表