基本上认为目前的ai研究没办法取得第一性原理。
目前认为智能的形成完全是某种相似性的构建
目前的一些比如提示词方向的构造其实也符合这部分
batch需要的是正交。(自己想的) 不过怎么样才能把未知的东西变成正交呢。
他描绘了一种什么样的关系
笔画 -> 印刷体 这是一个模型 这个模型中提出到字 手写体 -> 笔画 -> 字
分解印刷体笔画的模型。
笔画 -> 字体 这个过程有什么用吗
通过相互之间的关系,还原出
应该用笔画和笔顺
笔画应该从笔画库中取,得到最普适的笔画有哪些 这些笔画应该能够容忍一些变形
字,需要成为 起始点,笔画
体取出一堆笔画
然后再作为数据源,分类,求出最适合的几种笔画
如果根本分不开,就合并。
tokenizer
所以diffusion是一个denoising的过程 对于这个模型而言,一副完整的图像是噪声更小的。