马斯克创建OpenAI研究方向为何会遭到质疑?

时间:2021-07-29 00:26 作者:亿佰体育
本文摘要:这是非常独特的专业观点。口罩和孵化器YCombinator社长阿尔特曼主导创办的非营利人工智能研究公司OpenAI依然肩负着双重愿景:一方面保证人工智能(AI )技术损害人类,另一方面该技术获得的利益分配更普遍, 这个组织制定的想法是幸福的,以前“以负责管理的态度开发AI技术”是最重要的。但是,其关注领域依然被业界人士诟病的——太小,太简单了。

亿佰体育

这是非常独特的专业观点。口罩和孵化器YCombinator社长阿尔特曼主导创办的非营利人工智能研究公司OpenAI依然肩负着双重愿景:一方面保证人工智能(AI )技术损害人类,另一方面该技术获得的利益分配更普遍, 这个组织制定的想法是幸福的,以前“以负责管理的态度开发AI技术”是最重要的。但是,其关注领域依然被业界人士诟病的——太小,太简单了。例如,TechCrunch著名记者MichaelSchmidt认为,尽管OpenAI,但他特别强调了“强化自学”(ReinforcementLearning )的作用。

但实质上,“强化自学”是最不常用的AI技术,需要威胁人们和企业的安全性,需要赋予价值。忽视,OpenAI必须改进已经应用于更普遍的AI技术形式的东西。因为他们已经对人类包含了根本的威胁(监督自学),或者给人类带来了惊人的利益(机器智能)。

因此,MichaelSchmidt将从专业的角度加强自我学习(ReinforcementLearning )、监督自我学习(SupervisedLearning )和机器智能(MachineIntelligence )。(看法仅为代表MichaelSchmidt的个人观点) OpenAI先生指出,AI技术不可避免地存在几乎不受控制的威胁。这样的观点很正确。

例如,牛津大学教授NickBostrom著名的思维实验——“回形针最大化”(Paper-ClipMaximizer )就是一个很好的例子。OpenAI优先考虑的“扩展自学”技术是机器学习算法,可以适用于聊天机器人和电子游戏机等。但有趣的是,增强自控算法一般不要从数据中忽略。

这个算法试图控制像机器人一样的代理. 这样的代理基于它可以采取的一系列行为及其当前状态。值得注意的是,“强化自学”技术没有一些缺点。至少20-30年必须切实迎来成熟期,不能马上作为解决很多问题的商业问题。

也就是说,人们和企业不一定需要聊天机器人和交互代理,重点是根据可以分析的数据获取更多的数据,发掘数据的意义和价值。但是分析师认为将来加强自学最有可能成为感觉机器人,这项技术在今后几年将被“监控”,但现在不是高度优先的技术。

在监督自学带来的危机的现在人们使用的人工智能技术可能包括对社会更必要的威胁:标准监督自学。但是,请注意,我们不考虑将人类变成“剪辑”或“灭绝的人类终结者式机器人”的科幻场景,只关注现在。“监督自学”涉及机器学习,必须用于过去的数据展开预测,很多情况下,利用的方程式很宽很简单,说明很模糊,很难理解。现在很多车站在机器学习和数据分析领域“最先进”的企业利用“监督自学”或“黑匣子建模”。

随着监督自学技术越来越成熟,在业务流程中的地位看起来越来越坚定,但带来了潜在的问题。监督自学很难受到“数据过剩数值”的影响。因此,为了包含各变量和历史数据点进行解释,作为说明系统工作原理的解析模型使用后,得到了细致的调整,调整后得到了模型。但是,过去的数据主要基于样本,无法表现该系统的更大倾向和“规则”,因此该模型无法很好地推广到新方案。

因此,最终得到的不适用于过去的状况,呼吸困难有可能被用作解读新状况的模型。例如,如果使用监督自学算法自动展开金融资产交易,则假设这里不包含大萧条时期的数据。这种情况下,算法有可能“意识”,随着新的咖啡连锁店的开业,市场有可能再次暴跌。


本文关键词:马斯,克,创建,OpenAI,亿佰体育,研究方向,为何,会,遭到

本文来源:亿佰体育-www.doowinedu.com