|
|
<application>
|
|
|
<component name="ee.carlrobert.codegpt.state.conversations.ConversationsState">
|
|
|
<option name="currentConversation" value="{"id":"2ea372bf-f79d-4805-a228-8cd51bf07dc9","title":null,"messages":[{"prompt":"我在适用ProxyAI这个Intellij插件,想要实现代码自动补全,gemini系列的哪个模型最适合?为什么?另外配置里有个“FIM”模板选项,我应该选什么?","id":"ab4b92a6-8055-4844-85d6-57ffd6339399","response":"对于在 IntelliJ IDEA 中使用 ProxyAI 插件实现**代码自动补全(Inline Code Completion)**,以下是针对 Gemini 系列模型的推荐及 FIM 配置指南:\n\n### 一、 最适合的模型:Gemini 1.5 Flash 或 Gemini 2.0 Flash\n\n在代码自动补全场景下,**强烈推荐使用 `gemini-1.5-flash` 或最新的 `gemini-2.0-flash`**(如果 API 支持)。\n\n**为什么不选 Pro 模型?**\n1. **响应速度(Latency)**:代码补全对延迟的要求极高(理想情况下需要在 300-500 毫秒内返回)。`gemini-1.5-pro` 虽然逻辑能力更强,但生成速度较慢,会导致你在敲代码时出现明显的卡顿和等待感,严重影响编码心流。Flash 模型专为低延迟、高并发任务设计,响应速度极快。\n2. **上下文窗口**:Flash 模型同样具备 1M 到 2M 的超大上下文窗口,完全足够 ProxyAI 将你当前文件甚至相关文件的代码作为背景信息发送给大模型。\n3. **成本**:代码补全会在你每次敲击键盘停顿时频繁触发(每小时可能触发数百次),Flash 模型的 API 成本远低于 Pro 模型。\n\n*注:如果你是在侧边栏进行“代码重构”、“解释代码”或“编写复杂测试用例”,请切换为 `gemini-1.5-pro`,但在**行内自动补全**场景,Flash 是唯一解。*\n\n---\n\n### 二、 FIM 模板选项应该选什么?\n\n**FIM (Fill-In-the-Middle)** 是一种让大模型同时看到光标“前面(Prefix)”和“后面(Suffix)”的代码,从而精准预测光标处“中间(Middle)”应该填什么代码的技术。\n\n**Gemini 的特殊性:**\n像 DeepSeek Coder、Qwen Coder 或 CodeLlama 这样的开源代码模型,在预训练时使用了特殊的 FIM Token(例如 `<|fim_prefix|>`、`<|fim_suffix|>`)。但 **Gemini 并没有公开支持这些特定的开源 FIM 标记**。如果你在 ProxyAI 中为 Gemini 选择了 `DeepSeek` 或 `Qwen` 的 FIM 模板,Gemini 可能会因为不认识这些特殊符号而输出乱码,或者把前后的代码又重复输出一遍。\n\n**配置建议:**\n\n1. **首选 Prompt / Instruction 模式**:\n 如果 ProxyAI 的 FIM 模板下拉列表中有 `Prompt`、`Instruction` 或专门针对 `Gemini/OpenAI` 的选项,请直接选择它。这种模式会用自然语言(而不是特殊符号)告诉模型:“请补全以下两段代码中间缺失的部分”。\n\n2. **自定义(Custom)FIM 模板**:\n 如果插件允许你自定义 FIM 模板,你可以使用类似以下的 XML 标签格式(Gemini 对 XML 标签的理解能力极强):\n ```text\n You are an expert programmer. Please complete the missing code between <prefix> and <suffix>. \n Output ONLY the missing code, without any markdown formatting, explanations, or repeating the prefix/suffix.\n \n <prefix>\n {prefix}\n </prefix>\n <suffix>\n {suffix}\n </suffix>\n ```\n *(注:具体变量名 `{prefix}` 和 `{suffix}` 请参考 ProxyAI 插件的官方变量说明进行替换)*\n\n3. **关闭 FIM(如果补全效果很差)**:\n 如果你发现配置 FIM 后,Gemini 总是重复你已经写过的代码,建议在 ProxyAI 中**关闭 FIM 功能**(或将模板设为 None/Default)。关闭后,插件只会把光标前面的代码发给模型,退化为传统的“续写”模式,这对于 Gemini 来说是最稳定、最不容易出错的补全方式。","referencedFilePaths":null,"conversationsHistoryIds":null,"imageFilePath":null,"webSearchIncluded":false,"personaName":null,"tool_calls":null,"tool_call_results":null},{"prompt":"我在适用ProxyAI这个Intellij插件,想要实现代码自动补全,gemini系列的哪个模型最适合?为什么?另外配置里有个“FIM”模板选项,我应该选什么?","id":"ab4b92a6-8055-4844-85d6-57ffd6339399","response":"对于在 IntelliJ IDEA 中使用 ProxyAI 插件实现**代码自动补全(Inline Code Completion)**,以下是针对 Gemini 系列模型的推荐及 FIM 配置指南:\n\n### 一、 最适合的模型:Gemini 1.5 Flash 或 Gemini 2.0 Flash\n\n在代码自动补全场景下,**强烈推荐使用 `gemini-1.5-flash` 或最新的 `gemini-2.0-flash`**(如果 API 支持)。\n\n**为什么不选 Pro 模型?**\n1. **响应速度(Latency)**:代码补全对延迟的要求极高(理想情况下需要在 300-500 毫秒内返回)。`gemini-1.5-pro` 虽然逻辑能力更强,但生成速度较慢,会导致你在敲代码时出现明显的卡顿和等待感,严重影响编码心流。Flash 模型专为低延迟、高并发任务设计,响应速度极快。\n2. **上下文窗口**:Flash 模型同样具备 1M 到 2M 的超大上下文窗口,完全足够 ProxyAI 将你当前文件甚至相关文件的代码作为背景信息发送给大模型。\n3. **成本**:代码补全会在你每次敲击键盘停顿时频繁触发(每小时可能触发数百次),Flash 模型的 API 成本远低于 Pro 模型。\n\n*注:如果你是在侧边栏进行“代码重构”、“解释代码”或“编写复杂测试用例”,请切换为 `gemini-1.5-pro`,但在**行内自动补全**场景,Flash 是唯一解。*\n\n---\n\n### 二、 FIM 模板选项应该选什么?\n\n**FIM (Fill-In-the-Middle)** 是一种让大模型同时看到光标“前面(Prefix)”和“后面(Suffix)”的代码,从而精准预测光标处“中间(Middle)”应该填什么代码的技术。\n\n**Gemini 的特殊性:**\n像 DeepSeek Coder、Qwen Coder 或 CodeLlama 这样的开源代码模型,在预训练时使用了特殊的 FIM Token(例如 `<|fim_prefix|>`、`<|fim_suffix|>`)。但 **Gemini 并没有公开支持这些特定的开源 FIM 标记**。如果你在 ProxyAI 中为 Gemini 选择了 `DeepSeek` 或 `Qwen` 的 FIM 模板,Gemini 可能会因为不认识这些特殊符号而输出乱码,或者把前后的代码又重复输出一遍。\n\n**配置建议:**\n\n1. **首选 Prompt / Instruction 模式**:\n 如果 ProxyAI 的 FIM 模板下拉列表中有 `Prompt`、`Instruction` 或专门针对 `Gemini/OpenAI` 的选项,请直接选择它。这种模式会用自然语言(而不是特殊符号)告诉模型:“请补全以下两段代码中间缺失的部分”。\n\n2. **自定义(Custom)FIM 模板**:\n 如果插件允许你自定义 FIM 模板,你可以使用类似以下的 XML 标签格式(Gemini 对 XML 标签的理解能力极强):\n ```text\n You are an expert programmer. Please complete the missing code between <prefix> and <suffix>. \n Output ONLY the missing code, without any markdown formatting, explanations, or repeating the prefix/suffix.\n \n <prefix>\n {prefix}\n </prefix>\n <suffix>\n {suffix}\n </suffix>\n ```\n *(注:具体变量名 `{prefix}` 和 `{suffix}` 请参考 ProxyAI 插件的官方变量说明进行替换)*\n\n3. **关闭 FIM(如果补全效果很差)**:\n 如果你发现配置 FIM 后,Gemini 总是重复你已经写过的代码,建议在 ProxyAI 中**关闭 FIM 功能**(或将模板设为 None/Default)。关闭后,插件只会把光标前面的代码发给模型,退化为传统的“续写”模式,这对于 Gemini 来说是最稳定、最不容易出错的补全方式。","referencedFilePaths":null,"conversationsHistoryIds":null,"imageFilePath":null,"webSearchIncluded":false,"personaName":null,"tool_calls":null,"tool_call_results":null},{"prompt":"那如果不局限于gemini,哪个模型最适合用于代码补全?","id":"a469d3c9-c5d7-4037-8900-47b2ec042c70","response":"如果不局限于 Gemini,在**代码自动补全(Inline Code Completion)**这个特定场景下,目前业界公认最适合的是**专门为代码训练且原生支持 FIM(Fill-In-the-Middle)的开源/闭源专用模型**。\n\n对于代码补全,**“天下武功,唯快不破”**。像 Claude 3.5 Sonnet 或 GPT-4o 虽然极其聪明,但它们生成速度相对较慢,且没有开放原生的 FIM 标记,更适合放在侧边栏做代码问答和重构。\n\n如果你在 ProxyAI 中配置自动补全,以下是目前最顶级的选择(按推荐程度排序):\n\n### 1. Qwen2.5-Coder (推荐 7B 或 32B 版本)\n这是目前开源界**最强**的代码模型系列,也是目前最推荐的补全模型。\n* **为什么最适合**:\n * **原生 FIM 支持**:它在预训练时就深度学习了光标前后的代码关系,补全极其精准,不会出现重复输出前后文的“幻觉”。\n * **极致的速度**:特别是 `Qwen2.5-Coder-7B` 版本,参数量小但代码能力惊人,API 响应延迟极低,能给你带来类似 GitHub Copilot 的丝滑体验(敲完代码瞬间出提示)。\n * **多语言支持**:对主流语言和框架的理解目前处于第一梯队。\n* **ProxyAI 配置建议**:FIM 模板选择 `Qwen`。\n\n### 2. DeepSeek-Coder (V2 Lite 或 V3)\nDeepSeek 在代码领域的表现有目共睹,其 Coder 模型是很多重度开发者的首选。\n* **为什么最适合**:\n * **原生 FIM 支持**:DeepSeek 同样原生支持 `<|fim begin|>` 等特殊标记,天生适合做中间补全。\n * **性价比与逻辑能力**:DeepSeek 的 API 极其便宜,且 V2 Lite 版本速度极快。最新的 V3 版本虽然参数巨大,但由于采用了 MoE 架构,推理速度依然很快,且逻辑能力逼近 GPT-4o。\n* **ProxyAI 配置建议**:FIM 模板选择 `DeepSeek`。\n\n### 3. Codestral (由 Mistral AI 发布)\n这是 Mistral 专门为 IDE 代码补全和生成打造的专用模型。\n* **为什么最适合**:\n * **为 IDE 而生**:它从立项开始就是为了集成到开发工具中,对 FIM 的支持是教科书级别的。\n * **上下文理解**:在处理长上下文(比如跨文件补全)时表现非常稳定。\n* **ProxyAI 配置建议**:FIM 模板选择 `Codestral` 或 `Mistral`。\n\n---\n\n### 总结与实操建议\n\n如果你追求**最完美的敲代码体验**,建议按照以下策略配置 ProxyAI:\n\n1. **行内自动补全(Inline Completion)**:\n * **首选模型**:`Qwen2.5-Coder-7B` 或 `DeepSeek-Coder-V2-Lite`(通过阿里云百炼、SiliconFlow 硅基流动等平台接入 API,延迟通常在 200-400ms)。\n * **FIM 模板**:务必选择与模型对应的专属模板(`Qwen` 或 `DeepSeek`),**千万不要选 Prompt 模式**,让模型发挥原生 FIM 的威力。\n2. **侧边栏对话 / 代码重构 / 找 Bug(Chat & Refactor)**:\n * **首选模型**:`Claude 3.5 Sonnet`、`DeepSeek-V3` 或 `GPT-4o`。\n * **原因**:这些场景不需要毫秒级的响应,但需要极高的逻辑推理能力和全局视野。","referencedFilePaths":null,"conversationsHistoryIds":null,"imageFilePath":null,"webSearchIncluded":false,"personaName":null,"tool_calls":null,"tool_call_results":null}],"createdOn":[2026,3,13,13,53,1,246575305],"updatedOn":[2026,3,13,23,15,58,540175523],"discardTokenLimit":false,"projectPath":"/home/debuggerx/StudioProjects/flutter_ffmpeg_sw_player"}" />
|
|
|
<option name="conversations" value="[{"id":"2ea372bf-f79d-4805-a228-8cd51bf07dc9","title":null,"messages":[{"prompt":"我在适用ProxyAI这个Intellij插件,想要实现代码自动补全,gemini系列的哪个模型最适合?为什么?另外配置里有个“FIM”模板选项,我应该选什么?","id":"ab4b92a6-8055-4844-85d6-57ffd6339399","response":"对于在 IntelliJ IDEA 中使用 ProxyAI 插件实现**代码自动补全(Inline Code Completion)**,以下是针对 Gemini 系列模型的推荐及 FIM 配置指南:\n\n### 一、 最适合的模型:Gemini 1.5 Flash 或 Gemini 2.0 Flash\n\n在代码自动补全场景下,**强烈推荐使用 `gemini-1.5-flash` 或最新的 `gemini-2.0-flash`**(如果 API 支持)。\n\n**为什么不选 Pro 模型?**\n1. **响应速度(Latency)**:代码补全对延迟的要求极高(理想情况下需要在 300-500 毫秒内返回)。`gemini-1.5-pro` 虽然逻辑能力更强,但生成速度较慢,会导致你在敲代码时出现明显的卡顿和等待感,严重影响编码心流。Flash 模型专为低延迟、高并发任务设计,响应速度极快。\n2. **上下文窗口**:Flash 模型同样具备 1M 到 2M 的超大上下文窗口,完全足够 ProxyAI 将你当前文件甚至相关文件的代码作为背景信息发送给大模型。\n3. **成本**:代码补全会在你每次敲击键盘停顿时频繁触发(每小时可能触发数百次),Flash 模型的 API 成本远低于 Pro 模型。\n\n*注:如果你是在侧边栏进行“代码重构”、“解释代码”或“编写复杂测试用例”,请切换为 `gemini-1.5-pro`,但在**行内自动补全**场景,Flash 是唯一解。*\n\n---\n\n### 二、 FIM 模板选项应该选什么?\n\n**FIM (Fill-In-the-Middle)** 是一种让大模型同时看到光标“前面(Prefix)”和“后面(Suffix)”的代码,从而精准预测光标处“中间(Middle)”应该填什么代码的技术。\n\n**Gemini 的特殊性:**\n像 DeepSeek Coder、Qwen Coder 或 CodeLlama 这样的开源代码模型,在预训练时使用了特殊的 FIM Token(例如 `<|fim_prefix|>`、`<|fim_suffix|>`)。但 **Gemini 并没有公开支持这些特定的开源 FIM 标记**。如果你在 ProxyAI 中为 Gemini 选择了 `DeepSeek` 或 `Qwen` 的 FIM 模板,Gemini 可能会因为不认识这些特殊符号而输出乱码,或者把前后的代码又重复输出一遍。\n\n**配置建议:**\n\n1. **首选 Prompt / Instruction 模式**:\n 如果 ProxyAI 的 FIM 模板下拉列表中有 `Prompt`、`Instruction` 或专门针对 `Gemini/OpenAI` 的选项,请直接选择它。这种模式会用自然语言(而不是特殊符号)告诉模型:“请补全以下两段代码中间缺失的部分”。\n\n2. **自定义(Custom)FIM 模板**:\n 如果插件允许你自定义 FIM 模板,你可以使用类似以下的 XML 标签格式(Gemini 对 XML 标签的理解能力极强):\n ```text\n You are an expert programmer. Please complete the missing code between <prefix> and <suffix>. \n Output ONLY the missing code, without any markdown formatting, explanations, or repeating the prefix/suffix.\n \n <prefix>\n {prefix}\n </prefix>\n <suffix>\n {suffix}\n </suffix>\n ```\n *(注:具体变量名 `{prefix}` 和 `{suffix}` 请参考 ProxyAI 插件的官方变量说明进行替换)*\n\n3. **关闭 FIM(如果补全效果很差)**:\n 如果你发现配置 FIM 后,Gemini 总是重复你已经写过的代码,建议在 ProxyAI 中**关闭 FIM 功能**(或将模板设为 None/Default)。关闭后,插件只会把光标前面的代码发给模型,退化为传统的“续写”模式,这对于 Gemini 来说是最稳定、最不容易出错的补全方式。","referencedFilePaths":null,"conversationsHistoryIds":null,"imageFilePath":null,"webSearchIncluded":false,"personaName":null,"tool_calls":null,"tool_call_results":null},{"prompt":"我在适用ProxyAI这个Intellij插件,想要实现代码自动补全,gemini系列的哪个模型最适合?为什么?另外配置里有个“FIM”模板选项,我应该选什么?","id":"ab4b92a6-8055-4844-85d6-57ffd6339399","response":"对于在 IntelliJ IDEA 中使用 ProxyAI 插件实现**代码自动补全(Inline Code Completion)**,以下是针对 Gemini 系列模型的推荐及 FIM 配置指南:\n\n### 一、 最适合的模型:Gemini 1.5 Flash 或 Gemini 2.0 Flash\n\n在代码自动补全场景下,**强烈推荐使用 `gemini-1.5-flash` 或最新的 `gemini-2.0-flash`**(如果 API 支持)。\n\n**为什么不选 Pro 模型?**\n1. **响应速度(Latency)**:代码补全对延迟的要求极高(理想情况下需要在 300-500 毫秒内返回)。`gemini-1.5-pro` 虽然逻辑能力更强,但生成速度较慢,会导致你在敲代码时出现明显的卡顿和等待感,严重影响编码心流。Flash 模型专为低延迟、高并发任务设计,响应速度极快。\n2. **上下文窗口**:Flash 模型同样具备 1M 到 2M 的超大上下文窗口,完全足够 ProxyAI 将你当前文件甚至相关文件的代码作为背景信息发送给大模型。\n3. **成本**:代码补全会在你每次敲击键盘停顿时频繁触发(每小时可能触发数百次),Flash 模型的 API 成本远低于 Pro 模型。\n\n*注:如果你是在侧边栏进行“代码重构”、“解释代码”或“编写复杂测试用例”,请切换为 `gemini-1.5-pro`,但在**行内自动补全**场景,Flash 是唯一解。*\n\n---\n\n### 二、 FIM 模板选项应该选什么?\n\n**FIM (Fill-In-the-Middle)** 是一种让大模型同时看到光标“前面(Prefix)”和“后面(Suffix)”的代码,从而精准预测光标处“中间(Middle)”应该填什么代码的技术。\n\n**Gemini 的特殊性:**\n像 DeepSeek Coder、Qwen Coder 或 CodeLlama 这样的开源代码模型,在预训练时使用了特殊的 FIM Token(例如 `<|fim_prefix|>`、`<|fim_suffix|>`)。但 **Gemini 并没有公开支持这些特定的开源 FIM 标记**。如果你在 ProxyAI 中为 Gemini 选择了 `DeepSeek` 或 `Qwen` 的 FIM 模板,Gemini 可能会因为不认识这些特殊符号而输出乱码,或者把前后的代码又重复输出一遍。\n\n**配置建议:**\n\n1. **首选 Prompt / Instruction 模式**:\n 如果 ProxyAI 的 FIM 模板下拉列表中有 `Prompt`、`Instruction` 或专门针对 `Gemini/OpenAI` 的选项,请直接选择它。这种模式会用自然语言(而不是特殊符号)告诉模型:“请补全以下两段代码中间缺失的部分”。\n\n2. **自定义(Custom)FIM 模板**:\n 如果插件允许你自定义 FIM 模板,你可以使用类似以下的 XML 标签格式(Gemini 对 XML 标签的理解能力极强):\n ```text\n You are an expert programmer. Please complete the missing code between <prefix> and <suffix>. \n Output ONLY the missing code, without any markdown formatting, explanations, or repeating the prefix/suffix.\n \n <prefix>\n {prefix}\n </prefix>\n <suffix>\n {suffix}\n </suffix>\n ```\n *(注:具体变量名 `{prefix}` 和 `{suffix}` 请参考 ProxyAI 插件的官方变量说明进行替换)*\n\n3. **关闭 FIM(如果补全效果很差)**:\n 如果你发现配置 FIM 后,Gemini 总是重复你已经写过的代码,建议在 ProxyAI 中**关闭 FIM 功能**(或将模板设为 None/Default)。关闭后,插件只会把光标前面的代码发给模型,退化为传统的“续写”模式,这对于 Gemini 来说是最稳定、最不容易出错的补全方式。","referencedFilePaths":null,"conversationsHistoryIds":null,"imageFilePath":null,"webSearchIncluded":false,"personaName":null,"tool_calls":null,"tool_call_results":null},{"prompt":"那如果不局限于gemini,哪个模型最适合用于代码补全?","id":"a469d3c9-c5d7-4037-8900-47b2ec042c70","response":"如果不局限于 Gemini,在**代码自动补全(Inline Code Completion)**这个特定场景下,目前业界公认最适合的是**专门为代码训练且原生支持 FIM(Fill-In-the-Middle)的开源/闭源专用模型**。\n\n对于代码补全,**“天下武功,唯快不破”**。像 Claude 3.5 Sonnet 或 GPT-4o 虽然极其聪明,但它们生成速度相对较慢,且没有开放原生的 FIM 标记,更适合放在侧边栏做代码问答和重构。\n\n如果你在 ProxyAI 中配置自动补全,以下是目前最顶级的选择(按推荐程度排序):\n\n### 1. Qwen2.5-Coder (推荐 7B 或 32B 版本)\n这是目前开源界**最强**的代码模型系列,也是目前最推荐的补全模型。\n* **为什么最适合**:\n * **原生 FIM 支持**:它在预训练时就深度学习了光标前后的代码关系,补全极其精准,不会出现重复输出前后文的“幻觉”。\n * **极致的速度**:特别是 `Qwen2.5-Coder-7B` 版本,参数量小但代码能力惊人,API 响应延迟极低,能给你带来类似 GitHub Copilot 的丝滑体验(敲完代码瞬间出提示)。\n * **多语言支持**:对主流语言和框架的理解目前处于第一梯队。\n* **ProxyAI 配置建议**:FIM 模板选择 `Qwen`。\n\n### 2. DeepSeek-Coder (V2 Lite 或 V3)\nDeepSeek 在代码领域的表现有目共睹,其 Coder 模型是很多重度开发者的首选。\n* **为什么最适合**:\n * **原生 FIM 支持**:DeepSeek 同样原生支持 `<|fim begin|>` 等特殊标记,天生适合做中间补全。\n * **性价比与逻辑能力**:DeepSeek 的 API 极其便宜,且 V2 Lite 版本速度极快。最新的 V3 版本虽然参数巨大,但由于采用了 MoE 架构,推理速度依然很快,且逻辑能力逼近 GPT-4o。\n* **ProxyAI 配置建议**:FIM 模板选择 `DeepSeek`。\n\n### 3. Codestral (由 Mistral AI 发布)\n这是 Mistral 专门为 IDE 代码补全和生成打造的专用模型。\n* **为什么最适合**:\n * **为 IDE 而生**:它从立项开始就是为了集成到开发工具中,对 FIM 的支持是教科书级别的。\n * **上下文理解**:在处理长上下文(比如跨文件补全)时表现非常稳定。\n* **ProxyAI 配置建议**:FIM 模板选择 `Codestral` 或 `Mistral`。\n\n---\n\n### 总结与实操建议\n\n如果你追求**最完美的敲代码体验**,建议按照以下策略配置 ProxyAI:\n\n1. **行内自动补全(Inline Completion)**:\n * **首选模型**:`Qwen2.5-Coder-7B` 或 `DeepSeek-Coder-V2-Lite`(通过阿里云百炼、SiliconFlow 硅基流动等平台接入 API,延迟通常在 200-400ms)。\n * **FIM 模板**:务必选择与模型对应的专属模板(`Qwen` 或 `DeepSeek`),**千万不要选 Prompt 模式**,让模型发挥原生 FIM 的威力。\n2. **侧边栏对话 / 代码重构 / 找 Bug(Chat & Refactor)**:\n * **首选模型**:`Claude 3.5 Sonnet`、`DeepSeek-V3` 或 `GPT-4o`。\n * **原因**:这些场景不需要毫秒级的响应,但需要极高的逻辑推理能力和全局视野。","referencedFilePaths":null,"conversationsHistoryIds":null,"imageFilePath":null,"webSearchIncluded":false,"personaName":null,"tool_calls":null,"tool_call_results":null}],"createdOn":[2026,3,13,13,53,1,246575305],"updatedOn":[2026,3,13,23,15,58,540175523],"discardTokenLimit":false,"projectPath":"/home/debuggerx/StudioProjects/flutter_ffmpeg_sw_player"}]" />
|
|
|
</component>
|
|
|
</application> |