作者:
[比] 奥利维耶·卡埃朗(Olivier Caelen)
/
[法] 玛丽–艾丽斯·布莱特(Marie-Alice Blete)
出版社: 人民邮电出版社
出品方: 图灵教育
副标题: 基于GPT-4和ChatGPT
译者: 何文斯
出版年: 2024-2
页数: 168
定价: 59.8元
装帧: 平装
丛书: 图灵程序设计丛书
ISBN: 9787115636409
出版社: 人民邮电出版社
出品方: 图灵教育
副标题: 基于GPT-4和ChatGPT
译者: 何文斯
出版年: 2024-2
页数: 168
定价: 59.8元
装帧: 平装
丛书: 图灵程序设计丛书
ISBN: 9787115636409
这本书的其他版本 · · · · · · ( 全部3 )
以下书单推荐 · · · · · · ( 全部 )
- 书单|人工智能与科研 (左思)
- 编程 (拼命奔跑的猪)
- 书单|O'REILLY (只要洛就必达)
- 书单 (ryansunsjtu)
- 计算机 (hanpfei)
谁读这本书? · · · · · ·
二手市场
· · · · · ·
订阅关于大模型应用开发极简入门的评论:
feed: rss 2.0










0 有用 cijianzy 2025-04-07 09:13:21 四川
细节比较多 但是讲的很广 颇有收获
3 有用 蓝黑星空 2024-03-20 17:16:03 贵州
内容时效性太短
1 有用 李欣原 2024-03-16 19:36:15 辽宁
我看不懂但是感觉就是一本说明书
5 有用 左思 2024-03-20 21:39:14 山东
2024年3月20日读毕,此书用非常小的篇幅就将GPT模型的零样本提示、少样本提示、思维链提示、微调进行了比较,前三者只是利用模型的原参数来生成内容,而微调则是利用提示示例来重新训练模型,这是改变了模型的参数的,因此生成的内容针对性会提高。也就是这是通过不同程度的机器学习来提高模型的预测能力。另外,还通过langchain来加强思想之间的迭代,来使生成内容的质量提高。还有,为了解决GPT数据的封闭... 2024年3月20日读毕,此书用非常小的篇幅就将GPT模型的零样本提示、少样本提示、思维链提示、微调进行了比较,前三者只是利用模型的原参数来生成内容,而微调则是利用提示示例来重新训练模型,这是改变了模型的参数的,因此生成的内容针对性会提高。也就是这是通过不同程度的机器学习来提高模型的预测能力。另外,还通过langchain来加强思想之间的迭代,来使生成内容的质量提高。还有,为了解决GPT数据的封闭性,通过插件搜索外部网页或数据来加强内容的实时性,还有解决GPT在计算方面的劣势。总之,大语言模型需要调好内部参数,记住一些东西,这是长期记忆;而每次的上下文可以方便大语言模型浏览;长短期记忆处理长期依赖关系和短期依赖关系;GPT也在考虑允许用户设置一些数据被模型长期记忆,增强生成内容的质量。 (展开)
0 有用 芸芸众 2025-01-21 14:07:26 北京
去年4月买的,刚抽空读完,发现还有搭配的github地址,同时原书也出了第二版(英文版),可以搭配阅读。边度边试,对理解大模型,理解应用开发有帮助。