进入正文

AI 无处不在

我们生活在可以将想象变为现实的AI时代。 曾经只存在于科幻小说中的人工智能已在不知不觉间融入到我们生活的各个方面,这是我们以前无法想象的。

新型的人工智能设备改变了人类运用技术以及与其交互的方式,让我们的生活变得更智慧。

那么,什么是人工智能,三星半导体又是如何与人工智能一道改变我们的生活的?让我们共同来探索。
  • 什么是人工智能?

    人工智能是计算机科学的一个分支,主要研究如何将人类的智能行为应用到机器系统中。 也就是说,人工智能让计算机或机器人等机器系统按照与人类相似的方式进行思考。

    当人工智能接收到某个任务时,它会从周围环境中获取信息并进行分析来选择一个合适的答案;如果答案有误,则会学习替代方案,在下一次任务中改进。

    人工智能是涵盖机器学习和自然语言处理等广泛技术的总称,目前广泛应用于智能手机、家用电器、自动驾驶汽车、工业制造和医疗等多个领域。 而这,仅仅只是开始。 不久后,生活中将处处可见人工智能的身影。

    整齐排列的一群机器人。
  • 图像与语音识别

    人工智能可以像人一样识别周围的环境或物体。 图像识别和语音识别是目前发展较快的两个领域。

    图像识别系统不仅可以识别物体和面部表情,现已发展到可快速识别隐藏背景和细微差别的阶段。 利用这种识别能力,还可以创建全新的超逼真图像。

    语音识别系统则可以利用深度学习来分析数十亿个单词以及复杂的短语和句子结构。 这种能力可让人工智能助理服务理解并响应用户的指令。

    圆环状扫描图片,代表利用人工智能技术进行图像和语音识别。
  • 让技术掌握学习能力

    为了让设备拥有独立思考的能力,机器学习这一概念应运而生。

    机器学习教会计算机如何识别数据的模式并自行做出可靠的决策,而不是通过编程让计算机执行特定任务。并且随着学习数据积累,逐步提升准确率。

    另一方面,深度学习是使用模仿人类大脑认知过程的人工神经网络,从大量数据中识别其模式的机器学习的子概念。深度学习已在图片分类和自然语言分析等核心领域发展到赶超人类的水平,可以应用在翻译、自动驾驶等领域。

    用线连接起来的多个点,说明人工神经网络的构造。
  • 能够推理的机器

    凭借根据某种思维得出新的判断或结论的推理能力,让人工智能能够基于现有数据和结果做出新的判断。

    以深度学习为基础,计算机可以像人类一样更加灵活地思考,也可以对识别出来的目标之间的相对关系进行判断。无论是简单的工作还是复杂的艺术创作,这些能力都将为我们生活的各个领域提供全新体验。

    最近爆火的巨型人工智能也是通过这种推理能力演进而来的。 生成式人工智能 (Generative AI) 模型不同于依靠编程指令输出结果的早期人工智能模型,它是通过学习海量数据,对给定的情景和指令进行推理后生成结果的。

    许多线连接在一起,用来说明人工神经网络。
  • 全局 AI

    当人们做决定时,不仅会考虑眼下的直接影响,还会着眼于未来产生的影响。 有时,我们会选择从长远来看更加有利的选项,即使它不能马上带来理想的结果。

    如今的许多巨型人工智能系统都是以具备这种判断能力为目标进行训练的。 通过“想象”每个选项带来的结果,从大局观的角度剖析问题,并寻找实现最终目标的更大可能性。

    点击全息图屏幕的示意图。

技术

机器学习的信息图,包括监督学习、无监督学习和强化学习。

赋予机器学习能力

机器学习是通过人工智能 (AI) 分析复杂的数据并自动预测未来行为的过程。通过有监督的学习并使用标签对数据进行分类,并通过无监督的学习识别数据集中的模式,机器学习让机器能够帮助我们更快速更准确地作出决策。

强化学习方法是模仿人类和动物通过试验和错误进行学习的过程,让机器和设备无需显式编程即可独立扩展自己的能力。总而言之,这些过程构成了所有 AI 支持特性和功能的基础。

人工神经网络(ANN)和深度神经网络(DNN)信息图。人工神经网络(ANN)由相互连接的算法层组成,深度神经网络(DNN)在输入和输出之间包含多个层。

神经元的力量

得益于深度学习的强大能力,机器可以以惊人的准确率分析和识别图像等输入数据。

这是可以按照类似于人类大脑的方式处理和学习数据的关联算法层,即通过由神经元组成的ANN(Artificial Neural Network,人工神经网络)实现。

DNN(Deep Neural Network,深度神经网络)是在输入层和输出层之间包含多个层的人工神经网络,在输入层和输出层之间通过像人脑一样错综复杂连接的多层神经元进行操作。

CNN(Convolution Neural Network,卷积神经网络)通常用于识别处理图像、语音和自然语言的数据模式。

展示人工智能处理大数据的过程的信息图。大数据生成和存储数据,人工智能处理数据并得出见解。

AI和大数据

人工智能中很神奇的一个应用场景就是处理庞大而复杂的大数据,这是原有技术无法实现的。 这种数据分析方式可以在人们做决策时提供必要的关键见解,因此多个行业都在加速引进人工智能。

机器学习算法可基于突破性的速度快速筛选和分析信息,运用该技术的公司则可以更轻松地发现数据中隐藏的见解并加以应用。

包含各种计算节点的HPC系统的并行处理。

计算能力达到新高度。

为了进一步推进人工智能的发展,必须开发与其水平相当的计算基础设施,即HPC(high-performance computing,高性能计算)。 HPC广泛应用于使用大量数据的多种场景,包括高性能数据分析和机器学习模型的训练。 HPC通过计算服务器实现并行计算,每个服务器都成为一个“节点”,从而确保先进的大型应用程序快速可靠地运行。 在推进人工智能发展以处理呈指数增长的数据方面,这种性能和效率至关重要。

云服务器人工智能与设备自带人工智能的比较。设备自带的人工智能不需要网络连接,响应速度更快。

端侧AI

在更快、更高效地提供人工智能服务方面,端侧 (On-device) AI的发展发挥着关键作用。 人工智能算法以及硬件和软件的快速发展,让人工智能服务成功从云端转移到设备内部。 凭借于此,移动设备、家用电器和汽车等机器上运行的人工智能服务在稳定性、隐私性和性能等方面获益颇多。 端侧AI降低了网络依赖性,速度比云端更快,并且可以安全运用生物识别等类别的敏感数据。

应用

推动移动设备端 AI

设备端 AI 不仅可显著提高处理速度,实现更高的可靠性和更严格的数据安全性,还将彻底改变我们使用移动设备的方式。例如,AI 相机可利用更好的图像处理技术来优化照片,并通过提供更准确的面部识别来增强生物识别的安全性。通过在移动设备本地进行 AI 处理,可带来更好的沉浸式和交互式虚拟和增强现实体验。它还将自然语言处理和语音识别等重要功能从云端转移出来,让虚拟助手变得更加智能和实用。

伸出的手掌,上方有一群蓝色立方体。

实现更高水平的高性能计算

即将大量普及的 AI 服务和技术将为高性能计算 (HPC) 开拓新的动态应用。

依托由高性能计算支持的超快 IT 基础架构,让直播流式传输服务等需要实时处理大量数据的应用能够提供逼真的高清内容。高性能计算集群也将受益于更高的能效,促进计算服务器和存储之间的快速数据传输。

此外,由于集群架构能够更加高效地管理资源,降低了企业的 TCO(总体拥有成本),高性能计算的相关支持成本也将会降低。

高性能计算示意图。

推动车用 AI
的进步

AI 不仅为自动驾驶汽车的发展创造了条件,还也是让通勤更加安全高效的关键。

互联汽车使用几十甚至数百个传感器,用于
1) 检测驾驶员尚未看到的潜在危险,并控制方向盘以避免事故;
2) 监控关键部件以帮助预防故障;以及 3) 监控驾驶员的视线和头部位置,以检测他们可能出现分心或犯困的情况,以及实现众多其他功能。
探讨如何推动创新!

自动驾驶汽车图片。

助力娱乐 AI
的进步

人工智能改变我们享受心仪娱乐活动的方式,比如它使智能电视名副其实。

三星等制造商正在利用 AI 为用户提供更加个性化的内容推荐,并且支持用户通过简单的语音命令来控制电视机。此外,三星最新推出的几款电视机具有机器学习功能,可让用户以逼真的分辨率观赏自己喜欢的内容:8K。利用内置 AI 处理器全面升级到 8K 高清画质,让用户的观看体验更上层楼。

一群朋友正在观看智能电视上的内容。

创新

推动人工智能创新

人工智能、数据中心、超连接、元宇宙……在数字化转型时代,这些主要平台正在不断重塑我们的生活。

正如以前的电脑和智能手机一样。 纵观这些新型平台的发展,我们不难发现,它们与半导体技术始终呈现齐头并进的局面。 一方的成长带动了另一方的变化,并激发了新的发展动力,从而产生了对下一次创新的需求。

以多种领先的半导体产品和技术为依托,三星为更高端人工智能在多种场景中的顺利应用奠定了稳固的基础。

生成式AI现已成为全世界的焦点,若要打造与之相当的巨型AI,高速处理海量数据的能力是必不可少的。但现有的计算结构面临诸多限制,在这种情况下,急需新型内存技术的保驾护航。

HBM-PIM (Processing-In-Memory) 通过让超高速内存HBM (High Bandwidth Memory) 本身承担部分计算功能,将以CPU为中心的集中式计算处理过程转变为分散式。 在传统架构中,计算的工作仅由CPU负责;但在改变后的架构中,内存也会承担部分计算功能,从而可以显著提高的数据整体处理能力,HBM-PIM也成为名副其实的新一代内存技术。

以用于生成式AI的语言模型为例,据估计,80%以上的计算功能都可以通过应用 PIM来加速。 计算应用HBM-PIM后得到的性能提升效果可以发现,与使用HBM和GPU加速器时相比,AI模型的性能提升了3.4倍甚至更多。

CXL-PNM (Processing-Near-Memory)和上文提到的HBM-PIM一样,是在存储器半导体上搭载运算功能的技术,通过在更靠近内存的地方执行运算功能,减少CPU 和内存之间的传输数据带来的瓶颈,并尽可能提升CPU的运算处理功能。

基于CXL的PNM解决方案采用易于添加内存容量的CXL接口,可提供的容量达到传统GPU加速器的四倍。 它适用于一次性处理满足各种客户需求的AI模型,也可用于巨型AI语言模型。 此外,与使用PCIe接口的加速器相比,AI模型的加载速度也快了2倍以上。

三星电子以开源方式对外发布了HBM-PIM和CXL-PNM解决方案,以及支持该解决方案的软件、运行方法、性能评估环境等内容,不断努力扩大AI内存生态系统。 

Exynos处理器搭载了先进的嵌入式神经网络处理器 (NPU),可实现更强大、更高效的端侧AI。同时,LPDDR5等内存解决方案针对打造AI系统所需的高性能处理也进行了优化。

人工智能解决方案的示意图,包括Exynos移动处理器、HBM-PIM、CXL-PNM、Z-SSD和AutoSSD。
  • 所有产品规格均基于内部测试结果,可能因用户系统配置不同而有所差异。
  • 呈现的所有产品图片仅用于展示之目的,与实际产品不一定完全一致。
  • 三星保留对产品图片和规格随时进行更改的权利,恕不另行通知。