嵌入式计算中的AI正在进入一个新的领域
据报道,数据处理绝对不是新概念,算法也不是。但训练和运算法的地方正在迅速发展。近年来,机器学习(BSO4420)算法的训练一般在云端进行,因为它可以利用临时的计算资源来执行这些数据密集的任务。
今天,人们大力推动数据的处理,并尽可能接近源头。这是由于物联网的出现,也是由于今天产生大量数据的各种技术。所有这些数据都使得这个组织以一种具有成本效益的方式充分利用它。这个组织通常需要考虑数据从源头传输到处理位置的成本,以及在资源密集型服务器/云环境中存储和处理数据的成本。
人工智能(AI)技术开始出现,如ESP32和基于cortexm4的微控制单元(MCU),它们可以在较大的微处理器单元(MPU)上进行低功率计算设备上的ML模型训练和执行。这样,数据可以保存在本地,必要时可以在云中传输。
嵌入式计算中的AI正在进入一个新的领域,通过将ML模型的整体占用空间的空间要求减少到100kb以下。例如,由于前者使用了现有的内存,嵌入式算法工程师比组合排序算法更受欢迎。尽管有许多算法,但它们正在开发基于AI的新的时间序列预测算法,并优化嵌入式环境。通过这种新方法,AI/ML模型可以在嵌入式板上进行训练。然后,这些模型被用来进行多变量统计推断。
新时间序列预测算法基于AI有三个优点:
由于计算在本地板上进行,因此性能有所提高,因此解决方案与网络延迟无关。
确保原始数据的安全/隐私,因为原始信号/数据仅在本地出现。
对于每个嵌入板,新型ML/AI模型的ML/AI模型。由于在典型的工业案例中,不可能使用单一的ML/AI模型来覆盖一组机器的特性,这可能是该方法的核心优势,因为传感器的环境变体、缺陷和机器变体。使用云服务器来训练每个嵌入板也是负担不起的。
技术突破
算法在嵌入式计算中扮演着重要的角色。通常,嵌入式设备执行的算法任务包括传感器数据清洗/过滤、数据编码/解码和控制信号生成。在嵌入式计算环境中,最佳算法的定义可能与PC和云服务器有很大的不同,因为存储容量有限,CPU能力和架构不同。
在过去几年中,人工智能/机器学习算法取得了突破性的进展,并取得了非常快的进展。许多努力都集中在应用AI/ML模型(这些模型在其他地方接受过培训)应用于嵌入式上下文中。换句话说,优化内存/CPU的利用率和算法的功耗,是成功部署AI/ML模型的必要条件。
人工智能正在缩小,可以运行这些先进的算法。技术进步现在允许人工智能和预测维护从基于MPU的设备转移到基于MCU的设备上,有些设备占用空间小,价格大幅下降。现在基于MCU的设备可以在网络边缘执行任务。例如,预测维护——以前只能在MPU上使用。这一新功能使芯片制造商、原始设备制造商(OEM)和智能设备制造商能够降低成本并提供差异化产品。