最近统计机器学习的课快结束了,正好做一下小小的总结。 : S9 |& w+ f1 Y ]8 p: ^* H6 G* Z3 Y+ B/ Y o. g2 i(欢迎访问老王论坛:laowang.vip)
Requirements: 高中概率和一点点本科的概率论,和一些统计机器学习的基础知识。; p8 C% P' x B0 r; f(欢迎访问老王论坛:laowang.vip)
1 h8 ^' ]! p! v* g6 X4 b# G00: 9 {/ h6 t; E/ A9 b # ], Y8 h; G8 N) P' B& V, | D最近(其实已经不是最近了)感觉机器学习领域最热门的是两个话题:ChatGPT类型的transformer模型,和Stable Diffusion这类生成式模型。不难注意到,这两类模型在解决两种完全不同的问题:对于一个sequence(序列,很多情况下就是你的输入,以及历史的上下文)他的后续应该是什么,以及给定一组D(一堆数据)找到他在某个空间的分布。对于前者,当你知道每一段输入的下一个词语是什么的时候,你就可以生成文本,而对于后者,除了D是数据,在哪个空间,什么分布,似乎都不是非常明了(当然,你也可能早就了解到这些信息了)。# a/ g& e7 o3 h w. N(欢迎访问老王论坛:laowang.vip)