单选题 以下关于Seq2seq 模型,描述错误的是哪一项?

A、 Seq2Seq 模型由编码器和解码器两部分组成
B、 Encoder 中将可变长度的信号序列变为固定长度的向量表达,其实本质也就是进行了特征压缩
C、 Encoder 和 Decoder 可以是 CNN、RNN、Transformer三种结构
D、 Seq2Seq 的 Encoder 和 Decoder 只能是相同的结构
下载APP答题
由4l***g7提供 分享 举报 纠错

相关试题

单选题 以下关于DCQCN功能的描述,错误的是哪一项?

A、DCQCN包含拥塞点算法,该算法集成在底层算法包
B、当CP的队列中,报文已经超过ECN门限时,CP在转发报文中打上ECN拥塞标记
C、RoCEv2新增了CNP控制报文用于拥塞通知
D、源端服务器收到CNP拥塞通知报文后,降低发包速率为50%

单选题 在多模态模型中,根据下游任务的类型,可以将任务划分为理解式任务和生成式任务。以下哪一项不属于生成式任务?

A、文生图
B、图生图
C、图生视频
D、图像检索

单选题 Mindformers是集成大模型开发、训练、微调、评估、推理、部署的全流程开发套件,提供业内主流的Transformer类预训练模型和SOTA下游任务应用,涵盖丰富的并行特性。其中MindPet作为集成在MindFormers中的套件,主要负责大模型全流程开发环节中的哪一部分?

A、大模型训练
B、大模型微调
C、大模型评估
D、大模型推理

单选题 盘古解决方案可简单概括为5+N+X,包括L0,L1,L2三层模型架构,以下相关说法中哪一项是正确的?

A、参数量:L0<L1<L2
B、L0层模型主要包含自然语言,多模态,视觉,预测,科学计算等基础能力
C、盘古矿山大模型是为了矿山应用场景特别定制的L2模型
D、盘古解决方案设置了工作流,便于对适用于同行业的L2模型进行整合,集成成为L1模型

单选题 Huggingface PEFT和MindPet都是常用的大模型训练套件,以下有关PEFT和MindPet的描述,错误的是哪一项?

A、PEFT和MindPet都是用于对大模型低参微调的套件
B、PEFT和MindPet都支持LORA,Pretx Tuning等微调算法
C、PEFT是开源套件,MindPet是闭源套件
D、PEFT基于PyTorch实现,MindPet基于Mindspore实现

单选题 以下关于ViT的Transformer Encoder模块,描述错误的是哪一项?

A、Transformer Encoder其实就是重复堆叠Encoder Block L次
B、Vision Transformer Encoder 和Transformer Encoder都有层归一化,多头注意力机制,残差连接和线性变换这四个操作,只是在操作顺序有所不同
C、一个Block之后维度依然和输入相同,因此可以堆叠多个Block
D、通过Transformer Encoder后输出的shape和输入的shape是不一致的

单选题 以下关于华为AI全栈解决方案的描述,错误的是哪一项?

A、ModelArts不仅可以调用NPU算力,也可以调用除了NPU以外的异构算力
B、MindSpore是深度学习框架,只能用在华为AI解决方案中
C、ModelArts提供分层API和预集成,使能应用的全流程服务
D、芯片算子库和自动化算子开发工具CANN可以屏蔽底层硬件差异,向上提供一个统一的接口

单选题 以下关于Stable Diffusion模型训练过程,描述错误的是哪一项?

A、Stable Diffusion 选择在像素图像本身上运行扩散过程
B、整个压缩过程,包括后续的解压、绘制图像都是通过自编码器完成的
C、得到的图像并非是一张精确的原始图像,而是分布
D、所有的操作都是在潜空间上,包括编码后的文本、输入图像和预测噪声