老司机 iOS 周报 #349 | 2025-09-01
你也可以为这个项目出一份力,如果发现有价值的信息、文章、工具等可以到 Issues 里提给我们,我们会尽快处理。记得写上推荐的理由哦。有建议和意见也欢迎到 Issues 提出。
文章
🐎 Why I'm Not Using Xcode 26's AI Chat Integration (And What Could Change My Mind)
@阿权:文章者结合自身开发体验,分析了 Xcode 26 中 AI 集成的不足,并建议 Apple 补齐(作者也是恨铁不成钢啊!):
- 请求队列:AI 功能会阻塞输入,无法 “边等待边规划”,打断开发思路。
- 上下文工程支持:不支持输入上下文文档,需反复解释编码规则,难以调教。
- 构建验证能力:无法自行构建、读取错误日志,频繁依赖人工操作,打断开发节奏。
- Git 集成:无法搜索历史、对比版本、自动提交,无法利用代码历史辅助开发(如恢复旧代码、更新文档)。
- 终端与 CLI 访问:无法通过终端运行自定义的 CLI 工具,简化多任务工作流。
- 项目文件限制:无法打开多仓库文件夹,适配复杂项目结构的能力差。
- 网页搜索与文档访问:无法获取最新 API / 提案信息,需手动查找,降低信息获取效率。
作者认为 Xcode AI 目前更像个 “功能展示”(有但难用),而非真正的生产力工具,核心问题是未围绕 “ AI 驱动开发” 的工作流设计(如频繁的人工干预、缺少自动化能力)。
为此,作者也是放弃了 Xcode 转向了 Cursor + Claude Code。
🐎 Working with partially generated content in Xcode previews
@DylanYang:iOS 26 有了新的 Foundation Models 框架支持开发者通过系统端侧的模型来生成一些数据,本文作者在此之上探索了如何让 Xcode Preview 功能和这些端生成的数据结构进行交互预览。预览 SwiftUI 的静态布局的话我们可以通过代码构造对应的数据结构来 mock 一个实现,此外也可以通过 json 的方式构造一个 GeneratedContent 作为端生成数据结构的初始化参数。如果需要验证流式输出对于 UI 布局的影响,则可以借助 AsyncThrowingStream 来模拟模型生成的场景。
🐢 From GPT-2 to gpt-oss: Analyzing the Architectural Advances And How They Stack Up Against Qwen3
@阿权:本文围绕 OpenAI 新发布的开放权重模型 gpt-oss(20B/120B)展开,对比了从 GPT-2 的架构演进,并与 Qwen3 的特性进行对比,最后总结其实用价值和局限。内容可概括为:
从 GPT-2 到 gpt-oss 的架构演进:
演进点 | 旧设计(GPT-2) | 新设计(gpt-oss) | 收益 |
---|---|---|---|
正则化 | Dropout | 无 Dropout | 单轮训练场景无过拟合风险,提升效率 |
位置编码 | 绝对位置编码 | RoPE(旋转位置编码) | 支持更长上下文,减少参数 |
激活函数 | GELU + 2 层前馈 | SwiGLU + 3 层门控前馈 | 降低计算成本,增强表达能力 |
前馈模块 | 单前馈模块 | MoE(混合专家模型) | 平衡模型容量与推理效率 |
注意力机制 | MHA(多头注意力) | GQA(分组查询注意力) | 减少显存与计算开销 |
长上下文优化 | 无 | 滑动窗口注意力(128 token) | 进一步降低长文本推理成本 |
归一化层 | LayerNorm | RMSNorm | 简化计算,提升 GPU 训练效率 |
推理控制 | 无 | 推理强度可调(低 / 中 / 高) | 平衡成本与准确率 |
gpt-oss 与 Qwen3 模型差异较小,在一些特性上各有千秋:
维度 | gpt-oss-20B | Qwen3 30B-A3B |
---|---|---|
架构权衡 | 更宽(嵌入维度 2880)、少量大型专家(32 个) | 更深(48 个 Transformer 块)、大量小型专家(128 个) |
长上下文处理 | 滑动窗口(13.1 万 token),但设计了 Attention Bias、Attention Sinks | 纯 GQA 支持更长上下文(26.2 万 token) |
实用价值与局限:
- 优势:MXFP4 优化适配单 GPU(20B 需 16GB 显存,120B 需 80GB 显存),推理强度可调,性能接近闭源模型;
- 局限:幻觉率较高,无训练代码 / 数据集(仅开源权重与推理代码),未提供基础模型;
- 未来潜力:随着工具集成成熟,可通过调用外部资源(如搜索引擎)弥补知识遗忘,进一步释放推理能力。
总体而言,gpt-oss 的发布丰富了开源 LLM 生态,为需要本地部署、高推理能力的场景提供了新选择,也为研究 Transformer 架构演进提供了重要参考。
注意:尽管 gpt-oss 名称中,oss 为 Open-source Software,但官方明确它只是开放权重(Open-weight)模型,仅提供模型权重与推理代码,而非完全开源。
🐕 GPT-5 Thinking System Prompts Leak
@Barney:这份提示词让我们看到 GPT-5 Thinking 模型的内部运作机制。核心内容包括:
• 知识边界:模型知识截止 2024 年 6 月,当前时间设定为 2025 年 8 月,具备 Web 搜索、Python 分析、图像生成等多种工具集成能力
• 交互规范:采用三通道架构(analysis、commentary、final),支持富文本 UI 组件(图片轮播、产品卡片、图表),强制要求立即完成任务不可推诿
• 安全机制:严格的事实核查要求(需引用来源),时效性信息强制网络验证,设有 1-10 级详细度控制参数
为理解大语言模型的提示工程和安全设计提供了珍贵的第一手资料,对 AI 应用开发者极具参考价值。
🐕 Corner concentricity in SwiftUI on iOS 26
@AidenRao:iOS 26 的同心圆角(Corner Concentricity)是苹果在 WWDC 2025 上强调的一项重要设计理念和视觉特性。同心圆角的核心思想是让嵌套的 UI 元素具有和谐一致的圆角,即使它们的大小或层级不同,其圆角的视觉“圆心”也尽可能保持一致,从而营造出统一、精致且富有纵深感的界面效果。
SwiftUI 引入了 ConcentricRectangle
这个新的 API,帮助开发者更高效地在复杂布局中实现完美的同心圆角效果,让界面设计更加统一与精致。
🐕 MNN LLM Chat iOS 流式输出优化实践
@JonyFang: 本文针对 iOS 应用中部署大语言模型(LLM)时出现的文字流式输出卡顿问题,提出了一套高效的三层优化方案:通过智能流缓冲解决模型输出与 UI 更新的频率不匹配,利用 UI 更新批处理与节流降低主线程压力,并借助打字机动画渲染增强视觉流畅性。这一方案提升了本地 LLM 应用的交互体验,适合开发高性能 AI 聊天应用的团队参考实践。其开源实现:MNN GitHub 项目 - https://github.com/alibaba/MNN。
内推
重新开始更新「iOS 靠谱内推专题」,整理了最近明确在招人的岗位,供大家参考
具体信息请移步:https://www.yuque.com/iosalliance/article/bhutav 进行查看(如有招聘需求请联系 iTDriverr)
关注我们
我们是「老司机技术周报」,一个持续追求精品 iOS 内容的技术公众号,欢迎关注。
关注有礼,关注【老司机技术周报】,回复「2024」,领取 2024 及往年内参
同时也支持了 RSS 订阅:https://github.com/SwiftOldDriver/iOS-Weekly/releases.atom 。
说明
🚧 表示需某工具,🌟 表示编辑推荐
预计阅读时间:🐎 很快就能读完(1 - 10 mins);🐕 中等 (10 - 20 mins);🐢 慢(20+ mins)