为什么你的手机需要更大的内存

2024-01-10 13:29:21

在这里插入图片描述

可以确定的是,手机已经先于电脑开启了AI计算时代,新发布的手机几乎都集成了AI处理器,那为什么你还需要更大的内存呢,下面我们来探讨下这个问题。

虽然目前新发布的手机并不都集成了AI处理器,但AI处理器已经成为了一种趋势和特色,越来越多的手机厂商开始开发和使用AI处理器来提升手机的性能和智能化。AI处理器是一种专门用于AI计算的芯片,它可以加速图像、语音、文本等数据的分析和处理,实现多种AI功能和任务,例如人脸识别、图像分类、语音识别、机器翻译、对话系统等。

目前,已经有一些手机搭载了AI处理器,例如iPhone X、华为Mate 10/V10、Google Pixel 2等,它们分别使用了苹果的A11 Bionic、华为的麒麟970、Google的Pixel Visual Core等AI处理器。这些AI处理器都有各自的架构、性能和应用。除了这些手机,还有一些手机也采用了一些支持AI计算的芯片,例如高通的骁龙8系列、联发科的天玑系列等。

根据一些专家和业内人士的预测,2024年将成为全球AI智能手机的关键元年,届时将有更多的手机集成AI处理器,实现更多的AI应用和创新。AI处理器将为手机带来更快的速度、更低的功耗、更好的用户体验和更高的安全性。

目前主流的AI模型应用

AI模型是一种利用人工智能技术,对数据进行分析、处理和预测的数学模型,它可以应用于各种领域和场景,实现多种功能和任务。目前,有许多实用的AI模型,根据不同的任务类型和数据模态,可以分为以下几类:

  • 图像生成(image generation):这类AI模型可以根据文本或图像的描述生成高质量的图像,例如Stable Diffusion、DALL·E、Midjourney等。
  • 图像分类(image classification):这类AI模型可以对不同类别的图像进行识别和分类,例如EfficientNet、ResNet、VGG等。
  • 目标检测(object detection):这类AI模型可以对图像中的多个目标进行定位和识别,例如YOLO、Faster R-CNN、SSD等。
  • 语义分割(semantic segmentation):这类AI模型可以对图像中的每个像素进行类别标注,例如U-Net、DeepLab、Mask R-CNN等。
  • 图像超分辨率(image super-resolution):这类AI模型可以根据低分辨率的图像生成高分辨率的图像,例如SRGAN、EDSR、ESRGAN等。
  • 自然语言理解(NLU):这类AI模型可以理解自然语言的语义和逻辑,实现多种自然语言理解任务,如情感分析、自然语言推理、语义相似度等,例如BERT、ALBERT、XLNet等。
  • 问答(QA):这类AI模型可以根据给定的段落和问题生成准确的答案,实现阅读理解和问答任务,例如SQuAD、RACE、HotpotQA等。
  • 机器翻译(MT):这类AI模型可以实现不同语言之间的翻译任务,例如中文到英文,英文到法文等,例如Transformer、GNMT、MarianMT等。
  • 对话系统(DS):这类AI模型可以实现与人类进行自然、流畅、智能的对话,例如ChatGPT、PaLM-E、Meena等。

手机可以跑哪些模型

举个栗子:

骁龙7自带的AI处理器是高通的Hexagon 770,它是一款专门用于AI计算的DSP(数字信号处理器),能够支持INT8、INT16、FP16等多种数据格式,以及TensorFlow Lite、ONNX、Caffe2等多种框架。Hexagon 770的AI性能达到了15TOPS(万亿次运算),相比上一代Hexagon 690提升了两倍。

骁龙7自带的AI处理器能够运行的AI模型的参数数量,取决于模型的类型、结构、精度、输入输出等因素,因此没有一个固定的答案。不过,根据高通的官方介绍,骁龙7自带的AI处理器可以运行一些复杂的AI模型,例如Stable Diffusion、MobileBERT、EfficientNet等,这些模型的参数数量都在几亿到几十亿之间。因此,我们可以大致估计,骁龙7自带的AI处理器能够运行的AI模型的参数数量的上限,可能在几十亿左右。

手机可运行的模型功能对存储内存的要求

手机AI处理器可以运行的AI模型的容量,取决于手机的硬件配置、内存空间、电池寿命等因素。一般来说,手机AI处理器可以运行的AI模型的容量在几百兆到几个G之间,不同的手机和模型有不同的容量要求。

  • Stable Diffusion:这是一种基于潜在扩散模型的图像生成模型,它可以根据文本或图像的描述生成高质量的图像。它的容量在2G到8G之间,不同的版本有不同的容量。
  • MobileBERT:这是一种用于资源限制设备的紧凑型任务无关的预训练模型,它基于BERT模型进行压缩和优化,使得模型大小减少了4倍,速度提升了5倍,同时保持了较高的精度。它的容量约为100M。
  • EfficientNet:这是一种基于深度神经网络的图像分类模型,它通过一种混合维度放缩方法,同时调整网络的深度、宽度和分辨率,实现了在不同的计算资源限制下,最大化模型的精度和效率。它的容量在5M到480M之间,不同的版本有不同的容量。
对运行内存的要求

手机AI模型运行需要的运行内存的大小,取决于模型的类型、参数量、输入数据等因素。一般来说,大模型的推理阶段,模型加载、分析数据需要直接占用运行内存,而目前主流手机市场最大的16GB运行内存,也并不能完全满足大模型所需的空间。因此,一些优化方法被提出,如减少闪存传输的数据量,提高每次传输的吞吐量,使用滑窗技术等。

一个粗略的计算方法是,每10亿个参数,占用4G显存。但这只是一个估算,实际的运行内存需求可能会更高,因为训练需要存储中间激活,通常会比参数(不含嵌入)数量增加3-4倍的内存。

综上所述

除了手机因为相机像素提升,游戏应用包巨大,软件越来越臃肿以及短视频兴起的原因之外,你还需要更多的内存以备AI模型的存储与运行所用,因为各种数据的处理等等越来越依赖AI模型,各种软件也会陆陆续续的绑定一些AI模型,以至于未来可能会出现百G的app。

文章来源:https://blog.csdn.net/Jailman/article/details/135498314
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。