GLM: General Language Model Pretraining 发表于 2023-04-06 更新于 2025-11-03 分类于 论文阅读 , LM 原始论文: GLM: General Language Model Pretraining 官方代码:GLM 文章idea 阅读全文 »
GLM-130B 模型环境搭建流程 发表于 2023-03-30 更新于 2025-11-03 分类于 论文阅读 , 工程 由于GLM-130B 工作非常soild,于是尝试部署验证模型效果 其说明非常详细,基本上按照上面的要求来即可。有一些小trick,于是记录如下: 安装过程 阅读全文 »
【转载】Feynman Technique 发表于 2023-03-03 更新于 2025-11-03 分类于 随笔 费曼学习法是非常好的学习方法,很多中文资料质量较差,不够完善,固转载一篇质量较高英文文章。 原文链接:The Feynman Technique: The Best Way to Learn Anything 阅读全文 »
Wide & Deep Learning for Recommender Systems 发表于 2023-03-03 更新于 2025-11-03 分类于 代码解读 , 推荐系统 原始论文: Wide & Deep Learning for Recommender Systems 代码示例:wd.py 文章idea 阅读全文 »
Image as a Foreign Language: BEIT Pretraining for All Vision and Vision-Language Tasks 发表于 2023-03-02 更新于 2025-11-03 分类于 论文阅读 , 多模态 个人以为:该模型确实具备了大一统的Level,模型的设计方面:简单、优美、有效。 阅读全文 »
BEIT: BERT Pre-Training of Image Transformers 发表于 2023-03-01 更新于 2025-11-03 分类于 论文阅读 原始论文: BEIT: BERT Pre-Training of Image Transformers 文章主旨 阅读全文 »
ZERO and R2D2: A Large-scale Chinese Cross-modal Benchmark and a Vision-Language Framework 发表于 2023-03-01 更新于 2025-11-03 分类于 论文阅读 , 多模态 我个人对该文章提出的模型架构并不是很推崇,因为其设计不够优美,有点过于复杂了。 阅读全文 »
VLMO: Unified Vision-Language Pre-Training with Mixture-of-Modality-Experts 发表于 2023-02-28 更新于 2025-11-03 分类于 论文阅读 , 多模态 原始论文: VLMO: Unified Vision-Language Pre-Training with Mixture-of-Modality-Experts 文章idea 阅读全文 »
Pixel-BERT: Aligning Image Pixels with Text by Deep Multi-Modal Transformers 发表于 2023-02-24 更新于 2025-11-03 分类于 论文阅读 , 多模态 原始论文: Pixel-BERT: Aligning Image Pixels with Text by Deep Multi-Modal Transformers 文章idea 阅读全文 »