
会员
从零开始大模型开发与微调:基于PyTorch与ChatGLM
更新时间:2024-12-31 17:38:36 最新章节:18.5 本章小结
书籍简介
大模型是深度学习自然语言处理皇冠上的一颗明珠,也是当前AI和NLP研究与产业中最重要的方向之一。本书使用PyTorch2.0作为学习大模型的基本框架,以ChatGLM为例详细讲解大模型的基本理论、算法、程序实现、应用实战以及微调技术,为读者揭示大模型开发技术。《从零开始大模型开发与微调:基于PyTorch与ChatGLM》共18章,内容包括人工智能与大模型、PyTorch2.0深度学习环境搭建、从零开始学习PyTorch2.0、深度学习基础算法详解、基于PyTorch卷积层的MNIST分类实战、PyTorch数据处理与模型展示、ResNet实战、有趣的词嵌入、基于PyTorch循环神经网络的中文情感分类实战、自然语言处理的编码器、预训练模型BERT、自然语言处理的解码器、强化学习实战、只具有解码器的GPT-2模型、实战训练自己的ChatGPT、开源大模型ChatGLM使用详解、ChatGLM高级定制化应用实战、对ChatGLM进行高级微调。《从零开始大模型开发与微调:基于PyTorch与ChatGLM》适合PyTorch深度学习初学者、大模型开发初学者、大模型开发人员学习,也适合高等院校人工智能、智能科学与技术、数据科学与大数据技术、计算机科学与技术等专业的师生作为教学参考书。
品牌:清华大学
上架时间:2023-11-01 00:00:00
出版社:清华大学出版社
本书数字版权由清华大学提供,并由其授权上海阅文信息技术有限公司制作发行
最新章节
最新上架
- 会员本书结合AI原生应用落地的大量实践,系统讲解提示工程的核心原理、相关案例分析和实战应用,涵盖提示工程概述、结构化提示设计、NLP任务提示、内容创作提示、生成可控性提示、提示安全设计、形式语言风格提示、推理提示和智能体提示等内容。本书的初衷不是告诉读者如何套用各种预设的提示模板,而是帮助读者深入理解和应用提示设计技巧,以找到决定大语言模型输出的关键因子,进而将提示工程的理论知识应用到产品设计中。本书计算机18.2万字
- 会员本书深入浅出地介绍了现代大型人工智能(ArtificialIntelligence,AI)模型技术,从对话机器人的发展历程和人工智能的理念出发,详细阐述了大模型私有化部署过程,深入剖析了Transformer架构,旨在帮助读者领悟大模型的核心原理和技术细节。本书的讲解风格独树一帜,将深奥的技术术语转化为简洁明了的语言,案例叙述既严谨又充满趣味,让读者在轻松愉快的阅读体验中自然而然地吸收和理解AI计算机15.8万字
- 会员本书内容从技能线和工具线展开介绍。其中,技能线介绍了虚拟数字人的技术原理、商业价值、创建工具等基础内容,以及AI文案、AI绘画、虚拟数字人及其直播、AI视频博主、AI带货主播、AI培训讲师等实操案例。工具线介绍了ChatGPT、StableDiffusion、腾讯智影、剪映等工具的使用方法,并通过实例介绍了使用这些工具制作数字人的技巧。计算机7.1万字
- 会员本书从介绍“ChatGPT第一次接触”开始,分析如何使用该工具来提高开发效率和质量。书中每一章都涵盖了ChatGPT的不同应用场景,从编写各种文档,到辅助进行需求分析和系统设计,以及数据库设计和开发高质量代码等均有讲解。还介绍了如何使用ChatGPT辅助进行系统测试以及任务管理,并对源代码底层逻辑进行了分析。计算机8.8万字
- 会员本书共16章,内容包括人工智能、OpenAI、ChatGPT的概述及其操作技巧。生动展示了ChatGPT在教育与学术、商业管理、新媒体、办公、求职等12个领域的实际运用,同时探讨了ChatGPT当前面临的挑战以及大模型的未来发展方向。计算机12万字
- 会员近年来,在自然语言处理领域,基于预训练语言模型的方法已形成全新范式。本书内容分为基础知识、预训练语言模型,以及实践与应用3个部分,共9章。第一部分全面、系统地介绍自然语言处理、神经网络和预训练语言模型的相关知识。第二部分介绍几种具有代表性的预训练语言模型的原理和机制(涉及注意力机制和Transformer模型),包括BERT及其变种,以及近年来发展迅猛的GPT和提示工程。第三部分介绍了基于Lang计算机12.7万字
- 会员本书介绍提示工程的基本概念和实践,旨在帮助读者了解如何构建高质量的提示内容。内容包括:认识大语言模型、ChatGPT应用体验、ChatGPTAPI、PythonChatGPTAPI库、提示工程、提示类型、基于提示工程应用Python数据分析等。计算机14万字