Android 开发者 09月12日
Android Studio 支持本地 LLM
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Android Studio 最新预览版现已支持本地 LLM,用户可下载 Canary 版并选择离线模型,在本地计算机上运行 LLM 来为 Android Studio 中的 AI 功能提供支持,例如聊天和代理功能。该功能适用于互联网连接不佳、公司对 AI 工具使用有严格政策或想要尝试开源研究模型的应用开发者。

🔧 Android Studio 最新预览版支持本地 LLM,用户可下载 Canary 版并选择离线模型,在本地计算机上运行 LLM 来为 Android Studio 中的 AI 功能提供支持,例如聊天和代理功能。

🌐 该功能适用于互联网连接不佳、公司对 AI 工具使用有严格政策或想要尝试开源研究模型的应用开发者。

📦 用户需要先确保计算机上已安装并运行本地 LLM 提供程序,例如 LM Studio 或 Ollama,然后下载并安装模型,启动 LLM 提供程序并为本地应用提供 LLM 服务。

🔄 在 Android Studio 中,用户需要依次选择 '设置' > '工具' > 'Gemini' > '模型提供程序',添加本地模型提供程序并启用模型,然后在 Gemini 聊天窗口中使用模型选择器切换到已配置的本地模型。

⚠️ 使用本地模型时,Android Studio 的某些 AI 功能和 Android 开发用例将无法正常运行,因为某些模型可能不具备 Android Studio 特定功能所需的能力,或者可能返回与 Android Studio 界面不兼容的响应。

原创 Android 2025-08-28 09:30 北京

Android Studio 最新预览版现已支持本地 LLM。只需下载 Android Studio Canary 版并选择离线模型,即可开始体验本地 LLM 带来的高效体验。

△ 本地 LLM 支持:设置视图

在日新月异的 AI 辅助开发领域,灵活性至关重要。您需要能够无缝融入您独特工作流程的工具,以适应各种场景,例如在互联网连接不佳的情况下使用本地 AI 模型,或是需要遵守公司有关使用 AI 模型的具体政策。为了满足这一需求,我们在 Google 中国开发者大会上推出了一项新的实验性功能:Android Studio 中的本地 LLM 支持

下载 Android Studio Canary 版本后,您将能够在自己的计算机上运行本地大语言模型 (LLM) 来为 Android Studio 中的 AI 功能提供支持,例如聊天和代理功能。欢迎您进行试用并分享反馈。

🔗 Android Studio Canary 版本

https://developer.android.com/studio/preview

🔗 反馈

https://developer.android.com/studio/report-bugs

虽然我们提供了让您使用本地 LLM 为 Android Studio 中的 AI 功能提供支持的能力,但我们仍然推荐 Android 开发者使用 Gemini 打造 AI 体验。您可以继续利用 Gemini 模型进行 Android 开发,无论是使用免费的默认模型还是使用付费的 Gemini API 密钥。这为希望通过 AI 提高工作效率的 Android 开发者提供了最简单、最优质的选择。然而,对于需要在离线状态下使用 AI 完成工作、公司对 AI 工具的使用有严格政策,或者想要尝试各种开源研究模型的应用开发者而言,这一新的本地 LLM 功能提供了额外的选择。

🔗 Gemini

https://developer.android.com/gemini-in-android

🔗 Gemini API 密钥

https://developer.android.com/studio/gemini/add-api-key

入门指南

🔗 入门指南

https://developer.android.com/studio/gemini/use-a-local-llm

下载 Android Studio Canary 版本,然后使用聊天窗口中的模型选择器来选择离线模型:

    设置本地 LLM 环境:首先,请确保您的计算机上已安装并运行本地 LLM 提供程序。LM Studio 或 Ollama 是两个热门选项,均已通过与 Android Studio 的兼容性测试。

    下载模型:下载并安装您选择的模型。有很多选项可供选择,社区模型也在不断发展。如果您想使用代理模式,我们建议您使用经过 "工具使用训练" 的模型。

    运行您本地的 LLM:下载后,启动您的 LLM 提供程序,以便为本地应用提供 LLM 服务。请确保配置了足够大的上下文长度 token 窗口,同时兼顾计算机的可用内存和 GPU 性能 (有关启动和配置环境的说明,请参阅 Ollama 文档或 LM Studio 文档)。例如,使用 22k 的上下文窗口搭配专门用于编码的 12b 本地模型。

    在 Android Studio 中选择您的模型:在 Android Studio 中,依次选择 "设置">"工具">"Gemini">"模型提供程序",点击 "+" 按钮添加本地模型提供程序并启用模型。现在,打开 Gemini 聊天窗口,使用模型选择器从默认 Gemini 模型切换到已配置的本地模型。

△ 本地 LLM 支持:模型选择器

🔗 Android Studio Canary 版本

https://developer.android.com/studio/preview

🔗 LM Studio

https://lmstudio.ai/

🔗 Ollama

https://ollama.com/

🔗 代理模式

http://d.android.com/studio/gemini/agent-mode

🔗 Ollama 文档

https://github.com/ollama/ollama/blob/main/README.md#quickstart

🔗 LM Studio 文档

https://lmstudio.ai/docs/app/basics

↕️ 上下滑动查看更多注释链接

连接成功后,您便可以使用 IDE 中的聊天功能,该功能完全由在本地计算机上运行的模型提供支持。

温馨提示:性能说明

我们希望您拥有良好的体验,并且我们也清楚,处于离线状态的本地模型可能无法像基于云端的 Gemini 模型那样提供最佳的体验。本地模型的响应可能不太准确,延迟通常也更高。因此,如果您希望获得更快、更准确的响应,Gemini 仍然是我们推荐的解决方案。

此外,请注意,使用本地模型时,Android Studio 的某些 AI 功能和 Android 开发用例将无法正常运行。某些模型可能不具备 Android Studio 特定功能所需的能力 (例如支持工具使用或多模态输入),或者可能返回与 Android Studio 界面不兼容的响应。

🔗 工具

https://developer.android.com/studio/gemini/agent-mode#how-it-works

🔗 多模态输入

https://developer.android.com/studio/gemini/attach-image

如何开发,由您主宰

我们正在提供本地 LLM 支持,让您能够更好、更灵活地控制您在开发工作流程中使用的 AI 模型,从而帮助您提高工作效率。我们非常期待您分享自己的使用体验,帮助我们持续完善这一功能。

即刻体验

欢迎您在 Canary 发布渠道中下载 Android Studio 的最新预览版,抢先体验本地 LLM。一如既往,您的反馈对我们非常重要,因为我们致力于构建您所需的工具,并帮助您更快地打造更出色的应用。也欢迎您持续关注 "Android 开发者" 微信公众号,及时了解更多开发技术和产品更新等资讯动态!

🔗 Android Studio 的最新预览版

https://developer.android.com/studio/preview


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Android Studio 本地 LLM AI 辅助开发
相关文章