网站首页

半岛平台产品中心

智能终端处理器 智能云服务器 软件开发环境

半岛平台新闻中心

关于我们半岛平台

公司概况 核心优势 核心团队 发展历程

联系我们半岛平台

官方微信 官方微博
半岛平台·(中国)官网入口 > 半岛平台产品中心 > 智能终端处理器

半岛平台浅谈人工智能

发布时间:2023-05-29 18:49浏览次数: 来源于:网络

  半岛平台两年前,我们对人工智能领域的最新进展进行了一次回顾,在市场领导者提供的基于“深度学习”的神经网络模型似乎无所不能与社会对“算法透明度”的需求之间,差距越来越大。在本次审查中半岛平台,我们将尝试探索这一差距,讨论哪些趋势和解决方案有助于解决问题或导致问题进一步恶化半岛平台。

  首先,我们所知的强人工智能(AGI)已经成为全球议程上的一个既定项目。一组讲俄语的研究人员和开发人员出版了一本关于这一主题的书,他们对这项技术的可能前景进行了全面的分析在过去两年中,AGI开发者的俄语社区每周都会举办公开研讨会。

  所述。争议既围绕着植入人工系统的可能性,也围绕着人类在多大程度上谨慎地赋予这些系统“意识”,如果可能的话。正如Konstantin Anokhin在

  系统经过多模式数据集(包括文本-图像对)的训练半岛平台,现在可以从文本描述生成各种场景的图像。与此同时,同样由OpenAI开发的Codex系统已经学会了根据用纯英语编写的算法生成软件代码。

  超深度学习。长期以来,美国巨头谷歌、微软(与OpenAI联合)和亚马逊一直在争夺神经模型的“深度”,如今中国科技巨头百度、腾讯和阿里巴巴也加入了这场竞赛。2021年11月,阿里巴巴创建了 35 M6多模网络 2 ,拥有大量的参数或连接(总共有10兆个),这是仅次于 37 人脑突触数量的数据,因为最新数据表明2 。

  基础模型。超深多模态神经网络模型被称为“基础模型”斯坦福大学世界顶尖人工智能专家编写的一份详细报告对其潜在能力和相关威胁进行了分析。一方面,这些模型的进一步发展可以被视为AGI道路上最接近的成就,系统的智能随着参数数量的增加而增加(超过人脑),感知模式(包括人类无法访问的新模式)以及大量训练数据(任何个人都无法处理)。后者允许一些研究人员推测,在不久的将来,“超人AI”可能会建立在这样的系统上。然而,仍然存在一些严重问题,包括报告中提出的问题和下文讨论的其他问题。

  算法透明度/不透明度。深度模型的进一步“深化”加剧了这种方法与“算法透明度”要求之间的冲突,这对于基于人工智能的决策系统来说是越来越重要的。“不透明”人工智能在涉及人的安全、权利、生命和健康的领域的适用性限制被全世界采纳和讨论。有趣的是,这样的限制会严重阻碍人工智能在可能有用的环境中的适用性,例如面对正在进行的COVID-19流行病,它可以帮助解决大规模的诊断问题,在不断上升的检查波和熟练医疗人员的灾难性短缺。

  完全使用人工智能。人工智能算法和应用正变得无处不在,涵盖日常生活的方方面面,无论是任何形式的运动还是金融、消费者、文化和社会活动。全球公司和对它们施加控制的国家是那些控制人工智能并从中获益的国家。正如我们早些时候所说的那样,地球上的数字活跃人口被划分为美国(谷歌、Facebook、微软、苹果、亚马逊)和中国(百度、腾讯、阿里巴巴)公司之间不平等的势力范围。客观上,由于这些公司和国家在维护统治精英权力的同时寻求大股东利润最大化,因此它们可能进行的任何操纵只会随着它们所掌握的人工智能权力的增长而增加。OpenAI最初打算作为一个面向公众的开放项目,现在已经从转向了闭源,现在它在财务上越来越依赖微软。

  能源效率。与加密货币采矿一样,“超深”学习系统的功耗和相关的碳足迹正成为另一个值得关注的问题。加密货币采矿因其有害的环境影响而长期受到批评。特别是,与微软联合开发的OpenAI Codex多式联运系统的最新结果在单独一节中涉及到该技术对环境的影响。鉴于最大的神经网络模型中现有的参数数量比人脑中的突触数量少几个数量级,此类模型及其参数数量的增加将导致此类系统对环境的负面影响呈指数级增加。人脑的效率,因为它在相同数量的参数下消耗的能量少得无法估量,对于现有的计算架构来说,仍然无法实现。

  军事化。在国际上禁止制造致命的自主武器系统(法律)方面没有重大进展,特种部队正在使用这种系统。由于攻击无人机的成功使用已经成为当地军事冲突的决定性因素,在不久的将来,在军事行动中更广泛地使用自主系统可能成为现实,特别是在模拟线.发展前景马克西姆·费多罗夫:

  鉴于前面分享的见解,我们将简要讨论可能的“增长区”,包括进一步发展至关重要的区域。

  “深度”能揭示什么?正如专家讨论所说的,例如《SBER银行》和《谷歌》2版的主要计算语言学家在2021年9月举行的85 研讨会上,“其中没有情报”,引用了其中一位与会者的话。最深层次的神经网络模型本质上是高性能和高成本的联想记忆设备,尽管其运行速度和信息量在大量应用中超过了人类的能力。然而,如果不手动调整它们,它们自身就无法适应新的环境条件,并且它们无法通过识别环境中的现象来产生新的知识,从而将它们连接到世界的因果模型中,更不用说与环境的其他组成部分分享这些知识了,无论是人还是其他类似的系统。

  参数可以简化为突触吗?传统上,基于一整套神经网络参数,并从每个参数对应于生物神经元之间的突触的假设出发,将“深层”神经模型的能力与人脑资源进行比较,就像人脑连接组的经典图形模型一样,自60多年前感知器发明以来,使用神经网络进行复制。然而,这忽略了树突臂独立处理信息的能力,或超图和元图轴突和树突结构,或不同神经递质在同一突触中作用的可能性,或者与接受簇中不同轴突的神经递质的干扰相关的效应。如果不能充分反映其中一个因素,就意味着现有“超深”神经网络模型的复杂性和容量从实际人脑中被去除了几十个数量级,这反过来又使人们对其架构是否适合“以电子方式”复制人类智能的任务产生了疑问。

  ”似乎很有希望。垂直神经符号体系结构涉及“较低级别”的人工神经网络,用于对输入信号(例如音频和视频)进行低级别处理,同时使用基于概率逻辑(Evgenii Vityaev,DiscoveryBen Goetzel,OpenCog)或非公理逻辑的“符号”系统(王培,NARS)用于行为模式和决策的高级处理。水平神经符号体系结构意味着可以在神经网络中表示相同的知识,实现直观的方法(Daniel Kahneman称之为系统1),或在基于上述概率或非公理逻辑的逻辑系统(系统2)中表示相同的知识。据此半岛平台,假设在前一个系统中隐含学习和隐含应用的“模型”可以转化为在后一个系统中明确推导和分析的“知识”,两个系统可以在对抗的基础上独立行动,在不断学习的过程中相互分享“经验”。

  道德规范可以正式化吗?随着在政府和政府间层面上越来越多地讨论在各个领域应用人工智能的伦理问题,很明显,相关立法中存在某些国家特色,首先是在美国、欧盟、中国、俄罗斯和印度似乎特别无用,因为在危急情况下),则不可避免地会制定与此类系统相关的立法,反映各国不同的道德规范,在国际市场工作的人工智能开发者必须适应人工智能道德领域的当地法律,这正是个人数据处理领域正在发生的事情,IT公司必须适应每个国家的法律。

  从人道主义角度来看,似乎有必要在联合国框架内加强AI和军备竞赛领先国家(俄罗斯、美国和中国)之间的合作,以全面禁止发展、部署和使用致命的自主武器系统(法律)。

  在进入国际市场时半岛平台,通用人工智能系统的开发商必须确保其人工智能决策系统可以预先配置,以考虑目标市场的道德规范和文化模式,这可以通过嵌入目标市场的“核心价值”来实现,在实施基于“可解释人工智能”的系统时,以“知识图”的基本层为基础

  俄罗斯目前在“超深”神经网络模型的开发和部署方面存在滞后,因此不能指望获得全球领导地位。中国需要通过将自己的软件开发以及用于训练人工智能模型的计算设备和数据带到桌面上来,缩小与领先者(美国和中国)的差距。

  然而,考虑到上述确定的基本问题、限制和机遇,在可解释人工智能和混合神经符号体系结构领域仍有可能取得突破,俄罗斯数学学校仍将成为这一领域的领导者,在AGI 2020国际人工智能大会上,新西伯利亚的一组研究人员获得了斯普林格奖,获得了最佳认知架构。就实际适用性而言,该领域在某种程度上与10-15年前的深度神经网络模型相似;然而,其实际发展的任何延迟都可能导致战略滞后。

  最后,将为参加AGI 2022会议的与会者提供一个深入研究强人工智能或通用人工智能领域问题和解决方案的额外机会,该会议预计将于明年在圣彼得堡举行,当然值得所有对此主题感兴趣的人关注。

下一篇:半岛平台百度CTO王海峰:大模型的发展为通用人工智能带来曙光|2023中关村论坛
上一篇:半岛平台私募人士:人工智能板块或“卷土重来”

咨询我们

输入您的疑问及需求发送邮箱给我们