(1)生成对抗网络 GAN(Generative Adversarial Networks)
优点:
生成能力强、不需要显式监督
缺点:
训练过程复杂、数据要求高
GAN的实际应用:
图像生成、图像修复“、风格迁移、去掉图像遮挡、年龄转移、语音合成“等。
(2)Transformer:
2017年,Google发表论文《Attention is all you need)》Q,成为Transformer开山之作。通过引入自注意力机制、多头自注意力机制°、前馈神经网络和位置编码等技术,Transformer实现了高效的并行计算和强大的表示能力。
自此,Transformer架构一路开挂,形成了一个枝繁叶茂的大家族,在文本分类、命名实体识别Q、
情感分析、问答系统、机器翻译、语音识别、图像分类Q等领域都取得了显著的成果。
3、大型预训练语言模型(Large Language Model)(通常基于Transformer架构)
近年来,BERT、GPT4、LLaMa等一大批优秀大模型纷纷亮相,开启了大模型新时代的新篇章。
前不久,谷歌多模态大模型RGemini Ultra也重磅发布,如今大模型不能说是热点,而要说是沸点
了。
对于技术人员来说,无论是从原理还是从使用上,大模型都注定成为“兵家必争之地”。