2025 07 13
那么HBM内存究竟是什么,与现在主流的LPDDR5有何不同呢?事实上,HBM(High Bandwidth Memory,高带宽内存)是一种基于3D堆栈技术,通过TSV(硅通孔)和微凸块(ubump)工艺实现的多层DRAM芯片垂直堆叠。而DDR(Double Data Rate)则采用的是并行总线架构,常见于DIMM(双列直插式内存模块)形式。 HBM的带宽究竟有多高呢?以最新的HBM3E为例,其传输速率达到了9.6GB/s,可提供1.2TB/s带宽。作为对比,LPDDR5X的带宽为8533Mbps(1066.6MB/s),也就是说HBM3E的带宽是LPDDR5X的1180倍。 这里
Gemini Deep Research
体验过chatgpt,豆包,Qwen,和Gemini的深度研究之后,个人感觉Gemini是最好的。 首先会生成研究方向,搜索关键字,然后可能是通过tool call的方式抓取相关内容,生成的结果可以用来创建到Web Page(可交互),Infographic,Quiz和音频。 k8s 中 prometheus的 token 是如何访问经过认证的kube-controller-manager的/metrics的? 答案是:证书验证(TLS)和Token授权(RBAC)是两个独立但连续的步骤。kube-controller-manager自己处理TLS握手,但会将授权决策委托给kube-apiserver。 认证 (Authentication) - 使用 TokenReview: kube-controller-manager接收到Token后,它会创建一个TokenReview对象。这个对象包含了它从Prometheus收到的原始Token。 它向kube-apiserver的/apis/authentication.k8s.io/v1/tokenreviews端点发起一个请求,内容就是这个TokenReview对象。 kube-apiserver收到请求后,会验证这个Token的签名和有效性。如果Token有效,kube-apiserver会在TokenReview对象的状态(status)字段中填充该Token对应的用户信息(用户名、UID、所属组等),并返回给kube-controller-manager。 现在,kube-controller-manager知道了这个请求的发起者是谁(例如,system:serviceaccount:monitoring:prometheus-k8s)。 授权 (Authorization) - 使用 SubjectAccessReview: 在知道了请求者的身份后,kube-controller-manager需要确认这个身份是否有权限执行请求的操作(即对/metrics路径进行GET操作)。 它会创建一个SubjectAccessReview对象。这个对象里包含了上一步获取到的用户信息以及本次请求试图执行的操作(verb: "get", nonResourceURL: "/metrics")。 它向kube-apiserver的/apis/authorization.k8s.io/v1/subjectaccessreviews端点发起请求。 kube-apiserver收到请求后,会查询集群中所有的RBAC规则(Role, ClusterRole, RoleBinding, ClusterRoleBinding),判断这个用户是否有权限执行该操作。 kube-apiserver将检查结果(允许或拒绝)填充到SubjectAccessReview对象的状态字段中,并返回给kube-controller-manager。 最终决策: kube-controller-manager收到SubjectAccessReview的响应后,如果结果是“允许”,它就会向Prometheus返回/metrics的数据。 如果结果是“拒绝”,它会向Prometheus返回403 Forbidden错误。 这保证了整个集群的认证授权策略是统一和集中的,避免了每个组件各自为政带来的安全风险和管理复杂性。 k8s 为什么要设计service/proxy的子资源? AI生成了4个理由,我觉得唯一有点说服力的也就第三条。 提供稳定的编程接口(Programmatic Access) 通过提供一个标准的 RESTful API 端点(GET /api/v1/namespaces/{namespace}/services/{service-name}:{port-name}/proxy/{path}),Kubernetes 为自动化工具和自定义控制器(Controller)提供了一个与内部服务交互的稳定接口。 一个经典案例就是 Kubernetes 早期的监控组件 Heapster(现在已被 Metrics Server 取代),它就是通过 service/proxy 接口去轮询各个组件(如 Kubelet)的 metrics 端点来采集监控数据的。这使得集群扩展组件的开发变得更加简单和标准化。 精细化的权限控制(RBAC) 简化开发与调试工作 符合逻辑的 RESTful API 设计 腾讯云的云开发,这配置有点高,128线程CPU,还是非NUMA结构: ...
Artifact vs Canvas
简单用了下claude artifact,效果如下: 我是普通账号,上下文长度有点短,生成之后就不能做修改了,步骤分解第一次是自己生成,截图这次是手动补充的。 后端接口接口不能直接发布,只能作为纯文本预览。 同样的提示词在aistduio上面用Gemini 2.5 pro效果就差了一些: https://github.com/vllm-project/production-stack vllm官方的最佳实践 letsencrypt 准备颁发IP证书了 Gemini Cli 发布,可以免费用2.5 pro,超过以后会降到2.5 flash,还是比较良心的 TensorFlow 现在是不是比不上pytorch了? 曾几何时,TensorFlow是深度学习框架领域无可争议的王者。然而,近年来,战局已悄然改变。来自学术界和产业界的多方证据表明,由Meta AI(原Facebook AI Research)主导开发的PyTorch,在用户青睐度、社区活跃度和学术研究应用等多个关键指标上,已经超越了Google支持的TensorFlow。虽然TensorFlow在特定的工业生产环境中仍占有一席之地,但“PyTorch后来居上”已成为业界的普遍共识。 学术界的压倒性优势与开发者的普遍偏爱 目前,PyTorch在学术研究领域的主导地位尤为突出。根据PyTorch官方在2024年底发布的回顾报告,超过70%的AI研究论文实现采用了PyTorch。这一数据得到了各大顶级AI会议论文代码实现的印证,PyTorch的出现频率远高于TensorFlow。这种趋势的背后,是PyTorch以其简洁、灵活和“Pythonic”的编程风格赢得了广大学者和开发者的心。 工业界的版图变迁:从TensorFlow独大到两强并立 传统上,TensorFlow凭借其强大的生态系统,如用于模型部署的TensorFlow Serving、用于移动和嵌入式设备的TensorFlow Lite(TFLite)以及端到端机器学习平台TFX,在工业界,特别是大规模生产部署方面,占据了绝对优势。许多大型科技公司,包括Google自身,其内部大量的AI应用和系统都深度绑定了TensorFlow。 然而,随着PyTorch的日渐成熟和其生态的不断完善,这一格局正在被打破。PyTorch在2.0版本后,通过引入torch.compile等功能,显著提升了训练性能,缩小了与TensorFlow在速度上的差距。同时,TorchServe等部署工具的推出,也补齐了其在生产环境中的短板。 更重要的是,随着大量在校期间习惯使用PyTorch的学生和研究人员进入工业界,企业的新项目越来越倾向于采用PyTorch。许多公司,特别是那些追求快速迭代和创新的AI初创企业,已将PyTorch作为首选框架。虽然让拥有庞大TensorFlow技术栈的公司进行“伤筋动骨”的迁移尚不现实,但在新项目的选择上,天平已明显倾斜。 Hugging Face生态的“风向标”意义 作为全球最大的AI模型和数据集社区,Hugging Face上模型的框架分布是衡量框架流行度的重要“风向标”。尽管没有精确的官方统计数据持续发布,但社区的普遍观察和模型上传趋势显示,绝大多数最新的、SOTA(State-of-the-Art)的自然语言处理(NLP)模型,尤其是大语言模型(LLMs),都优先提供PyTorch版本。这得益于Hugging Face的Transformers库与PyTorch的无缝集成。开发者可以轻松地使用PyTorch对Hugging Face上的模型进行微调和再训练,这极大地促进了PyTorch在NLP领域的统治地位。 那什么又是 Pythonic 呢? cline 可以从Gemini cli中调用2.5 pro的接口的,后续又去掉了,哈哈。 https://github.com/musistudio/claude-code-router 想用claude code但是没有合适的购买途径,就可以用这个项目。 生活 bilibili首页刷到了某豪车租赁的账号。 为啥AMD突然就把英特尔干趴了?Intel的股价快到历史新低了。
如何离线下载音乐?
DB-GPT 是真的一般呀,UI一般,经常还有报错。 Using AI for Troubleshooting: OpenAI vs DeepSeek Kaniko 终于正式归档了,构建工具用哪一个呢? Gemini Code Assist VSCode插件发布了,速度好慢。 GPUmanager 分析,已经不维护了,后续推荐https://github.com/Project-HAMi。 openrouter 还有一个free的模型。 都说ragflow的rag功能比dify要好,测试了一下。 生活 腾讯云智面试 离线下载音乐,想听歌越来越难了 存款利率迈入“1”时代,
Apple Container
Claude Code 内部工作原理窥探 写的很不错,里面还有一篇关于LLM思考的文章。 引申出了另一个问题,Proxy和这种代理的对比: 特性 普通隧道代理 (Tunneling Proxy) 解密/拦截代理 (Intercepting Proxy) 能否看到明文 ❌ 不能 ✅ 可以 工作模式 HTTP CONNECT 隧道模式 中间人攻击 (MITM) 模式 与服务器的连接 客户端与服务器端到端加密 代理分别与客户端和服务器建立加密连接 是否需要安装根证书 否 是 (关键步骤) 主要用途 访问控制、IP 伪装、网络路由 网络调试、安全审计、数据修改 典型例子 多数商业 VPN 或普通网络代理 Mitmproxy, Burp Suite, Charles 这周是WWDC,发布了Apple Container,去年发布了 Hyper Framework,嗯macOS 开始成为最好的开发系统Apple Container,看了下issue。还有MTU的问题。 iOS 26 & Android 16 想整合多个vllm实例,搜索以后发现这个项目litellm。 试用了Trae kube-proxy 的 nft 后端还是自己封装的? 浑元3D