2025 08 10
解决容器起不来的问题,k3s内置的containerd有时候会出现幽灵镜像的问题,就是镜像存在但是pod还是起不来,重启了一下进程就好了。 看下dify有什么新功能吗?好像还是没太大变化。 Qwen-image 的模型发布了,可以在图片中插入文字了,还不错。 cloudpods 还自己搞了一个infomer,挺简单的一个。 国投瑞银 Kubernetes 双集群高可用架构设计实践 ,用了双机房双集群,没有用联邦,用了istio的多主方案。 喵了眼 aliyun 的cloudDNS服务,看了下aicon相关的ppt分享。 特斯拉如何在 ClickHouse 上构建了一个万亿规模的观测平台 做了一个PromQL到SQL的转换层。 差不多把cloudpods的文档全部读了一遍。 生活 武汉大学的男生真是可怜,但是好像又不能为他做点事情。
k3s and wsl
这一周好忙 新公司的网络居然可以直连谷歌,香港的出口IP,Zenlayer的线路哈哈,而且还能直接用Gemini神奇。 发现git默认生成的密钥对改成了ed25519,问了下AI如下: ssh-keygen 是一个非常实用的命令行工具,用于生成 SSH (Secure Shell) 协议使用的密钥对。这个密钥对通常由一个私钥和一个公钥组成。它们是 SSH 安全通信的基石,允许用户在不传输密码的情况下安全地认证到远程服务器。 密钥对的核心概念 公钥 (Public Key): 这是您可以安全地共享给任何人的部分。 您需要将它放在您想要连接的远程服务器上(通常在 ~/.ssh/authorized_keys 文件中)。 公钥用于加密数据,并且可以验证私钥签名的数据。 它不能用来解密数据或进行身份认证,只能用于验证私钥持有者的身份。 私钥 (Private Key): 这是您需要严格保密的部分。绝不能与任何人共享。 它通常存储在您的本地计算机上(例如 ~/.ssh/id_rsa)。 私钥用于解密由对应公钥加密的数据,并用于向远程服务器签名认证请求。 如果私钥泄露,您的 SSH 连接安全就会受到威胁。 ssh-keygen 的基本用法 最简单的生成命令是: ssh-keygen 执行这个命令后,ssh-keygen 会引导您完成以下几个步骤: 文件保存路径: 它会提示您选择密钥对的保存位置。默认情况下,私钥会保存在 ~/.ssh/id_rsa(对于 RSA 算法)或 ~/.ssh/id_ed25519(对于 Ed25519 算法),公钥则会是相同路径加上 .pub 后缀(例如 ~/.ssh/id_rsa.pub)。 Enter file in which to save the key (/home/user/.ssh/id_rsa): 如果您不输入任何内容直接回车,就会使用默认路径。如果您想生成多个密钥对用于不同目的,可以输入不同的文件名。 密码短语 (Passphrase): Enter passphrase (empty for no passphrase): Enter same passphrase again: 这是非常重要的一步。 作用: 为您的私钥加密。即使私钥文件被盗,没有密码短语也无法使用。这提供了额外的安全层。 建议: 强烈建议设置一个强密码短语。虽然每次使用私钥时都需要输入密码短语会增加一点点不便,但它能极大地提升安全性。您可以使用 ssh-agent 来缓存密码短语,避免每次都输入。 留空: 如果您留空(不设置密码短语),私钥将不加密,这意味着任何获得该私钥文件的人都可以直接使用它。在自动化脚本等特定场景下可能会留空,但请务必了解其安全风险。 密钥指纹和随机艺术图: 生成完成后,ssh-keygen 会显示密钥的指纹 (fingerprint) 和一个随机生成的艺术图 (randomart image)。这些信息用于视觉验证密钥的唯一性。 ...
CUDA 将支持RISC-V
近日举办的2025 RISC-V中国峰会上,NVIDIA硬件工程副总裁Frans Sijstermans宣布,CUDA软件平台将支持RISC-V指令集架构处理器,为开源架构RISC-V开启进入数据中心与AI市场的大门。 遗憾的是,Go 的 C 语言 FFI 实在太差了。cgo 的糟糕程度怎么说都不为过。 使用Gemini cli 尝试做一个自动抓取公司技术博客的应用。 Qwen-codeer 发布了,效果还可以,比Qwen好一些,但是有点贵 调试百万分之一的故障:将 Pinterest 的搜索基础设施迁移到 Kubernetes, 指标 container_referenced_bytes 在 cAdvisor 中默认启用,用于跟踪进程在每个测量周期中引用的总内存字节数。该指标通过 PTE 访问位机制实现了 Brendan Gregg 的工作集大小(WSS)估计,该机制使用页表中的访问位来计算进程读取或写入的总内存量。每次 cAdvisor 运行时,它会扫描整个页表来计算此统计数据,通过统计所有条目中的所有访问位,然后清除每个已访问的位。PinCompute 每 30 秒运行一次 cAdvisor,这意味着这种侵入性的访问位检查和清除每分钟发生两次,每分钟一次。 Manas 搜索索引每个叶节点可能高达数百 GB,而二级排序索引可能超过 1TB。当 Manas 叶节点启动时,它们会将整个索引映射到内存中。这意味着内存使用可能非常显著(例如,对于内存使用量为 100GB 的主机,页表可以容纳 2500 万个条目)。每 30 秒遍历并清除 2500 万个页表条目可能会确实导致与内存密集型叶处理产生竞争。
kimi k2 发布
Kimi K2 是一款具备更强代码能力、更擅长通用 Agent 任务的 MoE 架构基础模型,总参数 1T,激活参数 32B。 在 SWE Bench Verified、Tau2、AceBench 等基准性能测试中,Kimi K2 均取得开源模型中的 SOTA 成绩,展现出在代码、Agent、数学推理任务上的领先能力。 知乎提问 在openrouter看到了groq,瞄了一下他们居然有自己的GPU。 不过最近,GPU 的地位也在经受挑战:一家名为 Groq 的初创公司开发出了一种新的 AI 处理器 ——LPU(Language Processing Unit),其推理速度相较于英伟达 GPU 提高了 10 倍,成本却降低到十分之一。贾扬清在推特上算了一笔账,因为Groq小的可怜的内存容量(230MB),在运行Llama-2 70b模型时,需要305张Groq卡才足够,而用H100则只需要8张卡。从目前的价格来看,这意味着在同等吞吐量下,Groq的硬件成本是H100的40倍,能耗成本是10倍。 Apple CPU的推理框架要支持CUDA了 EKS 100k node,之前k8s官方说最大5k节点,openai说他们有10k节点,这篇文的写的不错,都是之前遇到的问题。 和上文对应,介绍如何保障APIserver的稳定 opencode 好像火起来了,golang加ts写的。 NFD 还可以探测操作系统的相关配置。 谷歌DeepMind最近从OpenAI的潜在收购目标中挖走了Windsurf公司的核心团队,进一步增强了谷歌的AI技术实力,背后离不开戴密斯·哈萨比斯的操盘。
故地重游与观海
那么HBM内存究竟是什么,与现在主流的LPDDR5有何不同呢?事实上,HBM(High Bandwidth Memory,高带宽内存)是一种基于3D堆栈技术,通过TSV(硅通孔)和微凸块(ubump)工艺实现的多层DRAM芯片垂直堆叠。而DDR(Double Data Rate)则采用的是并行总线架构,常见于DIMM(双列直插式内存模块)形式。 HBM的带宽究竟有多高呢?以最新的HBM3E为例,其传输速率达到了9.6GB/s,可提供1.2TB/s带宽。作为对比,LPDDR5X的带宽为8533Mbps(1066.6MB/s),也就是说HBM3E的带宽是LPDDR5X的1180倍。 这里 目前只有kubelet支持动态修改log level。 用于LLM的沙盒环境,没想到背后是依赖libkrun,containers组件下面的,后来看下了RedHat也有相关介绍。 和集团那边沟通他们声称设计的推理集群最多只能支持32物理机节点,啊这有点不科学,天天都在听说什么万卡集群,这差的有点多吧。 液冷服务器 生产环境中的 LLM 推理, 这系列文章写的不错。 试用了下perplexity,感觉一般,没有很惊讶。 GORK 4 发布了。 生活 已经提了离职,周五晚上到下周一去了趟青岛。 电力如何调度的?这几天新闻说用电量一直达到历史新高。