|
transformer 音標拼音: [trænsf'ɔrmɚ] n. 變壓器,使變化的人 變壓器,使變化的人 transformer自耦變壓器 ATRtransformer變換器 變壓器 transformer n 1: an electrical device by which alternating current of one voltage is changed to another voltageTransformer \ Trans* form" er\, n. 1. One who, or that which, transforms. Specif. ( Elec.), an apparatus for producing from a given electrical current another current of different voltage. [ 1913 Webster] 2. ( 1990' s) a toy consisting of a figure or representation of an object, constructed of interlocking parts in such a way that a series of turning or twisting motions of the parts can transform the object from one type of object to a different type of object, such as from an animal to an automobile. [ PJC] { Multiple transformer}. ( Elec.) ( a) A transformer connected in multiple or in parallel with the primary circuit. ( b) A transformer with more than one primary or more than one secondary coil. { Parallel transformer} ( Elec.), a transformer connected in parallel. [ Webster 1913 Suppl.] 29 Moby Thesaurus words for " transformer": agent, alembic, alterant, alterative, alterer, anvil, caldron, catalyst, catalytic agent, crucible, engine, ferment, innovationist, innovator, introducer, lathe, leaven, machine, melting pot, modificator, modifier, mortar, motor, precursor, retort, test tube, transducer, transmogrifier, yeast
|
安裝中文字典英文字典查詢工具!
中文字典英文字典工具:
英文字典中文字典相關資料:
- 一文了解Transformer全貌(图解Transformer)
网上有关Transformer原理的介绍很多,在本文中我们将尽量模型简化,让普通读者也能轻松理解。 1 Transformer整体结构 在机器翻译中,Transformer可以将一种语言翻译成另一种语言,如果把Transformer看成一个黑盒,那么其结构如下图所示:
- 如何最简单、通俗地理解Transformer? - 知乎
Transformer最开始应用于NLP领域的机器翻译任务,但是它的通用性很好,除了NLP领域的其他任务,经过变体,还可以用于视觉领域,如ViT(Vision Transformer)。 这些特点让Transformer自2017年发布以来,持续受到关注,基于Transformer的工作和应用层出不穷。
- 如何从浅入深理解 Transformer? - 知乎
Transformer升级之路:12、无限外推的ReRoPE? Transformer升级之路:13、逆用Leaky ReRoPE Transformer升级之路:14、当HWFA遇见ReRoPE 预训练一下,Transformer的长序列成绩还能涨不少! VQ一下Key,Transformer的复杂度就变成线性了 Transformer升级之路:15、Key归一化助力长度外推
- Transformer两大变种:GPT和BERT的差别(易懂版)-2更
Transformer是GPT和BERT的前身。谷歌和OpenAI在自然语言处理技术上的优化,都是基于这个模型。 更多关于的Transformer可以看文章: ChatGPT与Transformer(无公式版) 而在目前的“猜概率”游戏环境下,基于大型语言模型(LLM,Large Language Model)演进出了最主流的两个方向,即Bert和GPT。 其中BERT是之前最流行
- Transformer模型怎么用于regression的问题? - 知乎
回归问题概述 Transformer模型基础 回归问题中的Transformer架构调整 应用案例 优化与技巧 挑战与改进 1 回归问题概述 回归问题是监督学习中的一种任务,目标是预测一个连续值。这类问题通常涉及对数值数据的建模,常见的应用场景包括: 股票价格预测 温度预测 房价预测 传感器数据的分析 回归
- 深度学习中“Transformer”怎么翻译为中文? - 知乎
Transformer 个人觉得不翻译为好。 Transformer按在机器翻译中原意可以翻译为变形器或变换器。但随着Transformer的普及,它已经成为一类以 自注意力 为主要部件的特定模型,其原本在机器翻译中的内涵变得不再重要,翻译成变形器反而不能涵盖其意义和除机器翻译外的场景。
- MoE和transformer有什么区别和联系? - 知乎
01 Transformer:像“万能翻译官”的神经网络 Transformer 是当今AI大模型(如ChatGPT)的核心架构,最初用于机器翻译,核心是自注意力机制(Self-Attention),能同时分析句子中所有词的关系,而非像传统RNN那样逐词处理。 核心特点: 并行计算:同时处理所有词
- 训练最基础的transformer模型用多大的gpu就行? - 知乎
给一个粗略的估计,12层编码解码结构(本质24层)默认参数的大概300+M,激活值和梯度差不多两倍700+M,优化器比如用 adam 需要存状态再300+M,然后batchsize16 序列长度512 的潜入表示大概大几十M,合起来1500M左右吧。 这个规模模型弄个16G或12G显存的就够用了,不够用时,可以尝试减小批量大小、使用
- 为什么 2024 年以后 MMDiT 模块成为了大规模文生视频或者文生图片的主流? - 知乎
而且对于纯transformer架构,文本tokens和图像tokens拼接在一起也是很自然且容易的事情(UNet的图像是2D特征,而文本是1D特征)。 而且,SD3的技术报告中其实也对不同的架构设计做了对比,这里的对比包括DiT,CrossDiT, UViT。
- 挑战 Transformer:全新架构 Mamba 详解
而就在最近,一名为 Mamba 的架构似乎打破了这一局面。 与类似规模的 Transformer 相比, Mamba 具有 5 倍的吞吐量, 而且 Mamba-3B 的效果与两倍于其规模的 Transformer 相当。 性能高、效果好,Mamba 成为新的研究热点。
|
|