普通视图
清明假期预计跨区域流动8.4亿人次
美股大型科技股盘前多数上涨,特斯拉涨1%
现货黄金突破4680美元/盎司
美元指数失守100关口
韩国计划将可再生能源发电占比提升至20%
司美格鲁肽口服减重药已开出超60万张处方,市场空间还有多大
媒体:全球最大的电池制造商宁德时代将雄心拓展至远洋 计划今年将其海洋事业部规模扩大一倍
苹果首款折叠屏手机已在试产
日经225指数收涨0.55%
业内人士认为碳酸锂价格出现短期回调
利用 AI Agent, 将域名从 Godaddy 迁移到 Cloudflare
背景和问题
我有一个老的域名:devtang.com,上面利用 GitHub Pages 搭了我的 博客。这个域名注册很多年了,一直在 Godaddy 上续费,并且用 DNSPod (后来被阿里收购) 做解析。
我一直想迁移到 Cloudflare,但是域名转移的操作很繁琐,所以一直没有下决心推进。
这次,我想试试用 Claude Cowork 功能帮我做这个事儿。整个流程下来,感觉还挺顺畅的,所以给大家分享一下。
我觉得 AI 时代这些工作的工作流都有变化,所以说分享这样的工作流,有助于大家建立这种基于 AI Agent 的工作模式迁移。
操作流程
在使用前需要先安装好 Claude in Chrome 插件,然后执行如下操作:
1、我首先打开 Godaddy 和 Cloudflare 官网,登录上去。然后打开 Claude in Chrome 的浏览器面板。输入如下提示词:
1 |
我要将域名 devtang.com 从 godaddy 转移到 cloudflare,帮我继续转移。 |
Claude 给出了如下的操作步骤,点击 Approve Plan。
2、Claude 开始在 Godaddy 和 Cloudflare 上操作,有两次它停下来了,需要我给它发邮箱里面的授权码。于是我打开邮箱把授权码发给它。
3、操作继续,在操作过程中,我可以随意切换 Tab 看它的操作过程,也可以看它的 thinking 的过程。它其实每一步都是通过截图确认操作,也会中间停留 3-5 秒(可能是为了防止被误别成机器人)。
因为它也会停留,所以我有时候会帮它直接点击了,让操作更快一点。这也丝毫不会影响后续的工作,因为它每一步都会截图确认。
最后我看到了操作确认信息,告诉我转移成功。
小结
- 借助 Claude Cowork, 我们可以把复杂的工作流程全部交给 AI。
- 在 Claude in Chrome 工作的时候,我们也可以随时接管网页操作,帮他把中间的步骤给衔接上。
- 操作过程中如果一直没有推进,可以查看 claude thinking 的过程,可以发现一些问题,帮他解决。
OpenAI状态页显示:ChatGPT 网页版当前出现故障
日本40年期国债收益率上升9.5个基点,至3.965%
商务部电子商务司负责人解读《关于更好服务实体经济 推进电子商务高质量发展的指导意见》
告别 `any`:TypeScript 中 `try...catch` 的最佳实践
在 TypeScript 项目中,你是否经常为了通过编译而写出这种代码?
try {
// 某些逻辑
} catch (err: any) { // ❌ 违背了 TS 类型安全的初衷
console.log(err.message);
}
随着 TS 配置趋于严格,catch(err: any) 往往会触发 ESLint 警告或编译错误。本文将介绍处理 catch 块中错误对象的几种最佳实践。
1. 理解 unknown 的必然性
在现代 TypeScript(4.0+)中,推荐将捕获到的错误声明为 unknown。这是因为在运行时刻,你无法保证捕获到的一定是 Error 实例。
try {
throw "意外的错误字符串"; // 这里的错误甚至不是一个对象
} catch (err: unknown) {
// ❌ 报错:'err' is of type 'unknown'
// console.log(err.message);
}
2. 方案一:类型守卫(Type Guards)—— 最稳健的方法
这是官方推荐的做法。通过显式的 instanceof 检查,TS 会在代码块内自动收窄(Narrowing)类型。
try {
await fetchData();
} catch (err: unknown) {
if (err instanceof Error) {
// ✅ TS 现在知道 err 是 Error 类型
console.error(err.message);
console.error(err.stack);
} else {
// 处理非标准错误(如 throw "string")
console.error("发生了未知类型的错误", err);
}
}
3. 方案二:自定义工具函数(封装大法)
如果你觉得到处写 if (err instanceof Error) 太麻烦,可以封装一个工具函数。这是目前大型项目中最流行的做法。
编写工具函数
function toError(err: unknown): Error {
if (err instanceof Error) return err;
return new Error(String(err));
}
业务中使用
try {
doSomething();
} catch (err: unknown) {
const error = toError(err);
console.log(error.message); // ✅ 永远安全
}
4. 方案三:函数式处理(类似 Rust/Go)
如果你讨厌深层嵌套的 try...catch,可以使用封装好的包装器,将错误作为返回值返回。
async function safeRun<T>(promise: Promise<T>): Promise<[Error | null, T | null]> {
try {
const data = await promise;
return [null, data];
} catch (err: unknown) {
return [toError(err), null];
}
}
// 使用:
const [err, data] = await safeRun(fetchUser(id));
if (err) {
handle(err);
} else {
render(data);
}
5. 进阶:处理 Axios 等库的特定错误
如果你在使用 Axios,可以使用它内置的类型守卫:
import axios from 'axios';
try {
await axios.get('/api/user');
} catch (err: unknown) {
if (axios.isAxiosError(err)) {
// 这里可以访问 err.response, err.status 等特有属性
console.log(err.response?.data);
}
}
总结:该选哪一个?
| 场景 | 推荐做法 |
|---|---|
| 临时处理/小型脚本 | if (err instanceof Error) |
| 标准大型项目 | 封装 toError() 工具函数,确保类型安全 |
| 追求代码扁平化 | 采用 safeRun 包装器返回 [err, data]
|
| 第三方库请求 | 优先使用库提供的 isError 判断函数 |
核心原则: 永远不要相信 catch 捕获到的内容,永远在访问属性前进行类型检查。这不仅是过编译的要求,更是写出健壮代码的基石。
红果短剧:针对近期AI短剧素材违规使用问题频发的情况,已处置作品670部
清明假期迎返程高峰 三天假期跨区域人员流动量预计达8.4亿人次
众筹300万美元的Agent盒子,想彻底解决你的算力焦虑
作者 | 张子怡
编辑 | 袁斯来
AI硬件赛道,似乎一夜之间跨入新世界。
上一个月,投资人还在打听硬件大厂高P创始人,这一个月,他们已经开始寻觅“下一个Mac mini”。
狂欢的起点,来自开源智能体框架OpenClaw(圈子里称为:龙虾)。从抢购大内存的Mac mini到各类软硬大厂的联名主机,FOMO恐惧症席卷着所有人。承载AI的硬件,如今成了不可错失的入口。
此前更多在极客圈子里风行的Agent Box忽然被推到前台。简单说,Agent Box就是⼀台面向个人用户的AI专用设备,其存在的唯⼀目的是在本地运行大模型和自主代理。
市面上已经有数家推出Agent Box的公司,包括Pamir、Violoop、Tiiny等等。Pamir估值超过2500万美元,而Tiiny AI推出的首款产品Tiiny AI Pocket Lab,在Kickstarter上众筹金额已达280万美金。有行业人士预计其最终众筹金额可能会超400万美金。
Tiiny AI Pocket Lab重量约300克,尺寸约一部手机大小,早鸟众筹价为1399美元,支持一键部署大模型(最高支持120B)不依赖云端、服务器或高端GPU,也不产生额外的Token消耗费用。
Tiiny AI无疑踩中风口,毕竟用户只需要花单次硬件的钱,便能无限量地使用“龙虾”。
不过,Tiiny AI副总裁兼商业化负责人Eco Lee在采访中曾反复强调:Tiiny AI Pocket Lab不是专门为Open claw设计,它是为个人设计的AI基础设施设备。
这听起来很迷人,甚至有些难以置信。人们必须展开新的想象,agent原生意味着什么,要实现什么?当制约我们使用AI的只剩下高昂的Token费用,我们又如何冲破这一限制?
Tiiny AI尝试给出一个答案。
01 何谓Agent Box
在理解Tiiny AI之前,需要厘清一个新的产品概念——到底什么是Agent Box(智能体盒子)?
在过去一年里,为了在本地运行开源大模型,人们们尝试过各种方案:有人用淘汰的旧电脑,有人抢购顶配的Mac mini。
这笔硬投入相当高昂。倘若用户想在本地端运行超过120B的大模型,购买PC电脑要凑近80GB的显存,整机成本超过5万元;即便选择苹果的Mac Studio(选配96GB统一内存版),也要花费超过2万元。
“你是否愿意买台电脑,只用来跑大模型?现在很多几万元的AI电脑,一旦启动本地大模型的时候,内存与算力就被过度占用,你甚至连一个网页都打不开。更别提打游戏或者看视频。”Eco说到。
除了设备本身开销之外,随着Token价格水涨船高,高昂的持续使用成本,也让“本地化部署”成为行业刚需。
因此,在Tiiny AI的产品构想里,其产品必须是台专门的AI设备,能够支持本地大模型和智能体7×24小时后台运行。其设计逻辑并非替代用户的个人电脑,而是作为外接独立设备,供手机、PC、平板或机器人等终端设备接入调用。系统默认将用户数据、凭证和工作流保存在本地,敏感操作无需上传云端,除非明确要求调用更强的云端模型。
在软件生态方面,设备将内置Agent Store,目前已适配OpenAI OSS、Qwen、GLM 等50余款开源大模型,以及 OpenClaw、n8n 等超百款智能体开发工具。
为构建丰富的端侧生态,Tiiny AI计划于今年7月推出模型格式转换工具,除了Tiiny官方支持的SOTA开源模型外,用户也可自行从Hugging Face等开源社区下载、转换并导入其他开源模型和用户自己的微调模型,并能上传分享给其他Tiiny用户。
“我经常给用户打个比方,云端的大模型就像瓶装矿泉水,好喝也要喝,但普通用户有大量高频、重复、贴近个人习惯、又不需要顶级智力的AI需求,就像用矿泉水洗手洗澡就太奢侈了。Tiiny的存在就像属于用户的‘AI水龙头’,你可以随意使用、token边际成本为0。”Eco告诉硬氪。
在Eco看来,云端大模型专注处理高智力、高精度、关键性任务,本地大模型则聚焦日常高频、个性化、带用户长期记忆的持续交互场景——这种“端云协同”模式,正是Tiiny AI,也是Agent Box最核心的价值所在。
在期待、掌声与纷至沓来的投资人邀约中,Tiiny AI难免要面对质疑。它必须回答的第一个问题,就是以并不昂贵的售价,如何实现前沿的产品理念,以及120B的参数模型?
02 是玩具还是工具
在海外reddit论坛上,对Tiiny AI Pocket Lab的评价两极分化。有人说这只会是玩具,甚至有人通过宣传照逆向工程了Tiiny AI的产品,认为其所宣称的功能很难真正实现。
他们质疑的点在于,Tiiny AI并未公布其所用的SoC(系统芯片)品牌,也没有使用高端的GPU,却能在本地运行120B的大模型。
这令人觉得不可思议。
“我们是一家AI Infra公司,核心是通过系统性底层优化,把有限硬件的每一分算力与资源,全部聚焦于LLM推理与Agent运行,这与其他做硬件的思路有本质不同。”Eco表示。
Tiiny AI Pocket Lab里使用的芯片是一颗SoC外加一颗dNPU,并通过Tiiny AI最核心的技术PowerInfer来实现媲美Nvidia、AMD等高端GPU芯片的本地模型推理能力。
PowerInfer是用于端侧的异构算力推理加速技术,Tiiny AI团队通过大量的数据测算和语料训练发现,大模型推理过程中,参数激活模式分为两类:“热激活参数”(每次与模型交互都会调用的核心参数,约占20%)和“冷激活参数”(仅在用户问到医学、法律等特定领域问题时激活,约占80%)。这种冷热激活的特性,恰好适合在端侧异构算力架构下优化分配。团队开源过PowerInfer的示例:用单个NVIDIA RTX 4090 GPU,运行参数量175B的大模型,速度能达到传统方案的11倍。
这些都属于AI Infra层面的技术积累。从芯片层到Agent调度层,再到模型训练层,都需要深厚的knowhow支撑。
在具体的落地场景中,Tiinny AI团队从Kickstarter的留言区中发现,其用户主要是使用如OpenClaw一类开源应用的普通用户、对数据隐私有刚需的专业人士和AI极客。即使在断网的离线环境下,该设备依然可以运行多步推理、Agent工作流、内容生成以及针对敏感数据的安全计算。“傻瓜式”的开箱即用、0token费的24/7 Agent和完全的自主控制权是这些人选择Tiiny的核心理由。
并且,该设备在系统内引入了长期记忆功能。用户的交互偏好、历史文件与对话记录,均能通过加密形式直接存储在本地硬件中。
“隐私是Agent Box的加分项,但核心在于本地模型的部署,它能够结合你的长期记忆主动做事情,这件事最重要。”Eco告诉硬氪。
Tiiny AI的产品预计在2026年8月交付。需要注意,Tiiny是AI Agent出身的团队,其最终产品呈现仍然是硬件。他们有合作供应商,但也需要应对量产中的突发情况。
硬件生产有太多需要趟过的河流,考验团队的并非融资,而是真正兑现诱人的承诺:在一个300克的盒子上,实现本地算力自由、不受Token价格束缚、完全私密。