掘金 人工智能 前天 11:38
Google AI Edge Gallery 手机端侧模型神器
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Google AI Edge Gallery 是一款实验性的 Android 应用程序,旨在提供设备端的生成式 AI 体验。该应用的核心在于利用 MediaPipe 和 TensorFlow Lite 在设备端运行大型语言模型,使用户能够通过聊天界面、图像分析和提示实验与 AI 模型交互,无需网络连接。系统架构包括用户交互功能、AI 处理管道、Android 应用程序、模型注册表等。关键技术集成包括 MediaPipe、TensorFlow Lite、Jetpack Compose、CameraX 等。该应用优先考虑离线功能,同时保持网络连接以进行模型发现和更新。

📱Google AI Edge Gallery 是一款 Android 应用,它利用 MediaPipe 和 TensorFlow Lite 在设备端运行大型语言模型,允许用户在没有网络连接的情况下与 AI 模型交互。

⚙️该系统由五个主要子系统组成,包括用户交互功能、AI 处理管道、Android 应用程序、模型注册表和外部服务。其中,模型注册表(model_allowlist.json)定义了所有可用的 AI 模型及其部署配置,包括模型 ID、模型文件、描述、运行时配置、推理参数和支持的任务等。

💬应用支持多种任务类型,如多轮对话 (llm_chat)、视觉+文本查询 (llm_ask_image) 和单轮实验 (llm_prompt_lab)。用户可以通过聊天界面与 AI 模型交互,选择模型、输入提示并接收响应。

🛠️该应用集成了多项关键技术,包括 MediaPipe LLM 推理 API、TensorFlow Lite 运行时、Jetpack Compose UI 框架、CameraX 集成、Work Manager 以及数据存储偏好设置。这些技术共同实现了设备端 AI 的高效运行和用户友好的交互体验。

🌐系统架构优先考虑离线功能,所有 AI 处理都在设备本地进行,从而确保用户隐私并减少对网络连接的依赖。同时,应用也保持与网络的连接,用于模型发现和更新,例如通过 Hugging Face 平台进行模型浏览和下载。

本文档提供了对 Google AI Edge Gallery 代码库的全面介绍,这是一个实验性的 Android 应用程序,可实现设备端生成式 AI 体验。概览涵盖了系统的架构、核心组件和关键工作流,以建立探索特定子系统的基础知识。

有关模型配置和注册管理的详细信息,请参见模型注册系统 。有关 Android 特定的构建配置和依赖项,请参见 Android 应用程序架构 。有关用户界面组件和聊天功能,请参见聊天界面系统 

系统目的与架构

Google AI Edge 画廊是一款 Android 应用程序,使用 MediaPipe 和 TensorFlow Lite 在设备端运行大型语言模型。该系统使用户能够在下载模型后,通过聊天界面、图像分析和提示实验与 AI 模型进行交互,无需网络连接。

高层系统架构

External_ServicesUser_Interaction_FeaturesAI_Processing_PipelineAndroid_ApplicationModel_Registrymodel_allowlist.jsonCentral Model RegistryModel Definitions• modelId & modelFile• defaultConfig• taskTypesMainActivityMain UI HostGalleryApplicationApp Entry PointChatViewPrimary Chat InterfaceModelManagerViewModelModel State ManagementMediaPipe LLM APIInference EngineTensorFlow LiteRuntime Execution.task FilesQuantized Modelsllm_chatMulti-turn Conversationsllm_ask_imageVision + Text Queriesllm_prompt_labSingle-turn ExperimentsHugging FaceModel DiscoveryOAuth AuthenticationUser Accounts

来源:model_allowlist.json1-70README.md1-62

核心组件概述

该系统由五个主要子系统组成,这些子系统协同工作以提供设备端的 AI 能力:

组件主要文件目的
模型注册表model_allowlist.json定义可用的模型、配置和功能
Android 应用程序构建文件,Manifest处理应用生命周期、依赖关系和权限
聊天界面ChatView, MessageInput 组件提供用户交互和模型切换功能
AI 处理MediaPipe,TensorFlow Lite 集成在设备上执行模型推理
外部集成Hugging Face, OAuth 服务模型发现与认证

模型注册系统

model_allowlist.json 文件作为中央注册表,定义了所有可用的 AI 模型及其部署配置:

model_allowlist.jsonmodels[]Model ConfigurationBasic Information• name• modelId• modelFile• descriptionRuntime Configuration• sizeInBytes• version• llmSupportImageInference Parameters• topK, topP• temperature• maxTokens• acceleratorsSupported Tasks• llm_chat• llm_ask_image• llm_prompt_lab

来源:[model_allowlist.json1-70]

目前注册表定义了四种生产模型,包括带有视觉支持的 Gemma 3n 变体和针对不同应用场景优化的 Qwen2.5 模型。每个模型条目指定了其支持的任务类型,使应用程序能够将用户交互路由到相应的模型能力。

应用流程和模型生命周期

GalleryApplicationApplication StartLoad model_allowlist.jsonParse Model DefinitionsMainActivityLaunch UIChatViewPrimary InterfaceModel SelectionHorizontalPagerModelManagerViewModelInitialize Selected ModelLoad .task Filevia MediaPipe LLM APITensorFlow LiteRuntime InitializationModel Readyfor InferenceRoute by Task Typellm_chatMulti-turn Conversationllm_ask_imageVision Analysisllm_prompt_labSingle-turn PromptsModel InferenceDisplay Responsein ChatPanelAwait Next InputMessageInputTextCleanup Previous Model

来源:model_allowlist.json1-70README.md22-31

关键技术集成

该应用集成了多项关键技术,以实现设备端 AI:

MediaPipe 和 TensorFlow Lite 集成

Android 平台特性

外部服务集成

系统架构优先考虑离线功能,同时保持与网络的连接以进行模型发现和更新。所有 AI 处理都在可用时使用设备硬件加速在本地进行,从而确保隐私并减少对网络连接的依赖。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Google AI Android 生成式AI 设备端AI
相关文章