| ISBN/价格: | 978-7-302-68561-6:CNY99.00 |
|---|---|
| 作品语种: | chi |
| 出版国别: | CN 110000 |
| 题名责任者项: | 从零构建大模型/.梁楠著 |
| 出版发行项: | 北京:,清华大学出版社:,2025 |
| 载体形态项: | 284页:;+图:;+24cm |
| 提要文摘: | 本书共12章, 涵盖了Transformer模型的基础理论, 如Seq2Seq模型、分词、嵌入层和自注意力机制等关键概念; 并深入剖析了GPT模型的核心实现与文本生成过程, 以及BERT模型的预训练和微调技术。同时, 也对ViT (视觉Transformer) 模型的架构、训练方法, 以及高阶微调策略如Adapter Tuning和P-Tuning进行了详尽讲解。此外, 还系统地介绍了数据处理、数据增强、模型性能优化 (包括混合精度训练和分布式训练)、对比学习、对抗训练、自适应优化器、动态学习率调度, 以及模型蒸馏与剪枝技术等多个方面。 |
| 题名主题: | 人工智能 |
| 中图分类: | TP18 |
| 个人名称等同: | 梁楠 著 |
| 记录来源: | CN SXSY 20250411 |