Android 开发者 2024年11月06日
如何轻松将 AI 模型引入 Android 设备
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文探讨如何在Android设备上构建自定义AI功能,包括利用工具与技术实现更优性能、隐私性和可用性,还介绍了相关步骤、资源及建立对AI信任的方法等。

🎯可在Android上构建自定义AI功能,探索设备端AI潜力

💻介绍如何将AI模型引入Android设备,如选择工具、测试部署等

🛠️提及Google AI Edge平台及相关工具,如MediaPipe Tasks等

🔒强调通过隐私性和透明度建立对AI的信任

原创 Android 2024-11-06 17:30 北京

您可以在 Android 上构建自定义 AI 功能,探索设备端 AI 的潜力,以实现更出色的性能、更好的隐私性和更高的可用性,为用户提供更安全更精彩的使用体验。

作者 / 高级开发者关系工程师 Kateryna Semenova 和高级产品经理 Mark Sherwood


在 "AI on Android Spotlight Week" 期间,我们深入探讨了如何将自己的 AI 模型引入 Android 设备,如手机、平板电脑等。通过利用 Google 和其他来源的工具与技术,您可以直接在这些设备上运行复杂的 AI 模型,以实现更出色的性能、更好的隐私性和更高的可用性,创造激动人心的可能性。


? AI on Android Spotlight Week

https://android-developers.googleblog.com/2024/09/welcome-to-ai-on-android-spotlight-week.html



了解设备端 AI



设备端 AI 不依赖基于云服务器,而是直接在硬件设备上部署和运行机器学习或生成式 AI 模型。此方法具有几项优势,例如降低延迟、强化隐私、节约成本,以及减少了对互联网连接的依赖。


对于生成文本用例,请探索 Gemini Nano;用户现在可以通过 Gemini NanoSDK 进行实验性访问。对于许多设备端 AI 用例,您可能想要在应用中打包自己的模型。我们将在本文介绍如何在 Android 上实现此操作。


? Gemini Nano

https://developer.android.google.cn/ai/aicore

? SDK

https://developer.android.google.cn/ai/gemini-nano/experimental


设备端 AI 的核心资源


Google AI Edge 平台为在边缘设备上构建和部署 AI 模型提供了一个全面的生态系统。此平台支持各种框架和工具,能让开发者将 AI 功能无缝集成到应用中。Google AI Edge 平台包括:



? Google AI Edge

https://ai.google.dev/edge

? MediaPipe Tasks

https://ai.google.dev/edge/mediapipe/solutions/guide

? LiteRT

https://ai.google.dev/edge/litert

? MediaPipe Framework

https://ai.google.dev/edge/mediapipe/framework

? Model Explorer

https://ai.google.dev/edge/model-explorer

↕️ 上下滑动查看更多注释链接



如何在 Android 上构建

自定义 AI 功能



1. 定义您的用例:在深入研究技术细节之前,明确定义您希望 AI 功能实现的目标非常重要。无论您致力于开发图像分类、自然语言处理还是其他应用,拥有明确的目标将为您的开发进程指明方向。


2. 选择合适的工具和框架:根据您的用例,您或许可以使用开箱即用的解决方案,也可能需要创建或获取自己的模型。通过 MediaPipe Tasks 查看常见的解决方案,如手势识别图像分割面部特征点检测。如果您找到符合需求的解决方案,可以直接进入测试和部署步骤。

如果您需要为用例创建或获取自定义模型,则需要一个设备端机器学习框架,例如 LiteRT (前身为 TensorFlow Lite)。LiteRT 专为移动和边缘设备设计,为部署机器学习模型提供了轻量级运行时。只需按照以下子步骤操作:

    开发和训练模型:使用您选择的框架开发 AI 模型。训练可以在功能强大的机器或云环境中执行,但模型应针对设备上的部署进行优化。量化和剪枝等技术可以帮助缩小模型尺寸并提高推理速度。Model Explorer 可以帮助您在使用模型的同时理解和探索该模型。

    转换和优化模型:当您的模型训练好后,就可以将其转换为适合设备端部署的格式。例如,LiteRT 需要将其转换为特定格式。优化工具可以帮助减少模型的占用空间并提升其性能。AI Edge Torch 允许您使用 Google AI Edge LiteRT 和 MediaPipe Tasks 库来转换 PyTorch 模型,使其能在 Android 和其他平台上本地运行。

    加速模型:您可以使用 GPU 和 NPU,为 Android 上的模型推理加速。借助 LiteRT 的 GPU 代理,您可以立即在 GPU 上运行您的模型。我们正在努力构建下一代 GPU 和 NPU 代理,使您的模型运行得更快,并支持更多模型在 GPU 和 NPU 上运行。我们诚邀您参与我们的抢先体验计划,以试用这一新的 GPU 和 NPU 基础设施。我们将会陆续邀请参与者抢先体验,即刻联系我们参与体验吧!


3. 测试和部署:为了确保您的模型在各种设备上都能实现预期的性能,严格的测试至关重要。完成测试后,即可向用户部署您的应用,为他们提供无缝且高效的 AI 体验。我们正在努力让 Google Play 和 Android App Bundle 发挥其优势,以便更好地为设备端 AI 功能提供自定义机器学习模型。Play for On-device AI 简化了启动、定位、版本控制、下载和更新设备端模型的复杂程度,从而为用户提供更好的使用体验,同时不会影响应用的大小,也不会增加成本。如有兴趣加入 Play for On-device AI 抢先体验计划,您可以填写表格


? MediaPipe Tasks

https://ai.google.dev/edge/mediapipe/solutions/tasks

? 手势识别

https://ai.google.dev/edge/mediapipe/solutions/vision/gesture_recognizer

? 图像分割

https://ai.google.dev/edge/mediapipe/solutions/vision/interactive_segmenter/android

? 面部特征点检测

https://ai.google.dev/edge/mediapipe/solutions/vision/face_landmarker/android

? LiteRT

https://ai.google.dev/edge/litert

? Model Explorer

https://ai.google.dev/edge/model-explorer?hl=zh-cn

? AI Edge Torch

https://developers.googleblog.com/en/ai-edge-torch-high-performance-inference-of-pytorch-models-on-mobile-devices/

? GPU 代理

https://ai.google.dev/edge/litert/performance/gpu

? 诚邀您参与我们的抢先体验计划

https://forms.gle/8HRC2EsVNstPqVgm6

? 填写表格

https://forms.gle/udLiRgA6zFzpfxZy9

↕️ 上下滑动查看更多注释链接



通过隐私性和透明度

建立对 AI 的信任



随着 AI 在日常生活中发挥的作用日益增强,确保模型在设备上按预期运行至关重要。我们强调 "零信任" 方法,为开发者提供工具来验证设备完整性和用户对其数据的控制。在零信任方法中,开发者需要能够对设备的可信度做出明智决策。


我们推荐开发者使用 Play Integrity API,来验证应用、服务器请求和设备环境。您可以在应用后端决定下载并运行模型之前的重要时刻调用 API。还可以考虑启用在安装应用时进行完整性检查,以减少应用被分发到未知和不受信任的环境中。


? Play Integrity API 

https://developer.android.google.cn/google/play/integrity/overview

? 在安装应用时进行完整性检查

https://support.google.com/googleplay/android-developer/answer/13857328#zippy=%2Cstore-listing-visibility


Play Integrity API 利用 Android 平台密钥认证来验证硬件组件,并在整个设备群中生成完整性判定,从而使大多数开发者不再需要直接集成不同的认证工具,降低了设备生态系统的复杂性。在决定是否信任设备运行 AI 模型之前,开发者可以使用其中一个或两个工具来评估设备安全性和软件完整性。


? Android 平台密钥认证

https://developer.android.google.cn/privacy-and-security/security-key-attestation



结论



将您的 AI 模型引入设备涉及多个步骤,包括定义用例、部署和测试模型等。借助 Google AI Edge 等资源,开发者可以使用强大的工具和洞察,使过程更顺畅、更高效。随着设备端 AI 的不断发展,您将能够利用这些资源,创建先进的应用,提供更好的性能、隐私性和用户体验。我们目前正在寻找抢先体验的合作伙伴,在 Google AI Edge 中试用我们的一些最新工具和 API。填写表格联系我们,即刻了解我们该如何共同努力,以实现您的愿景。


? 填写表格联系我们

https://docs.google.com/forms/d/e/1FAIpQLSdXA167bUPw3Lc-g_fQ4bMfXXhXxOqskv-xXHtvV8mbqZy90A/viewform


深入了解这些资源,并开始探索设备端 AI 的潜力——您的下一个重大创新,可能只差一个模型!


欢迎了解 "AI on Android Spotlight Week" 期间分享的其他更新内容。也欢迎您持续关注 "Android 开发者" 微信公众号,及时了解更多开发技术和产品更新等资讯动态!


? "AI on Android Spotlight Week" 期间分享的其他更新内容

https://android-developers.googleblog.com/2024/09/welcome-to-ai-on-android-spotlight-week.html



点击图片关注精彩活动




 点击屏末 阅读原文 | 了解更多将 AI 模型引入 Android 设备的信息




阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Android 自定义AI功能 设备端AI Google AI Edge
相关文章