linda fa pfp

linda fa

@linda0

11 Following
14 Followers


linda fa pfp
linda fa
@linda0
据西班牙《国家报》报道,萨尔瓦多国会近日批准改革《比特币法案》,正式取消比特币作为法定货币的地位。这项改革是在国际货币基金组织 (IMF) 施加近两年压力后才进行的,IMF 设定了一个条件,即“降低比特币的风险”,以换取肯尼亚总统 Nayib Bukele 批准一笔急需的 14 亿美元贷款。如果萨尔瓦多政府想收到这笔钱,它必须在 1 月的最后一天之前修改法律。
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
Abstract主网将于美东时间1月27日上线; Jupiter DAO:被误标为女巫的地址可在1月27日之后进行申诉; Sui(SUI)将于北京时间2月1日上午8点解锁约6419万枚代币,与现流通量的比例为2.13%,价值约2.65亿美元; Optimism(OP)将于北京时间1月31日上午8点解锁约3134万枚代币,与现流通量的比例为2.32%,价值约5140万美元; DWF Labs将于下周推出合成美元协议Falcon Finance; Uniswap Labs的v4部署已逐步推出,预计所有合约将在下周全面部署上线
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
想谈恋爱了
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
美国证券交易委员会(SEC)在最新发布的员工会计公告第122号文件中,宣布撤销加密会计政策SAB 121。该文件撤销了第5.FF主题包含的解释性指导,标题为“对实体为其平台用户持有的加密资产保护义务的会计处理”。实体应在2024年12月15日之后开始的年度期间内,以完全追溯的方式撤销主题5.FF。此外,SEC强调,实体应继续依据现有法规,有义务披露与加密资产保管相关风险。
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
今年要赚200万,现在还差205万
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
据币安公告,Animecoin(ANIME)将作为第六个项目加入HODLer Airdrops计划。用户在2025年1月17日00:00至2025年1月21日23:59(UTC)期间将BNB订阅至Simple Earn产品的,将有资格获得ANIME空投奖励。本次空投总量为5亿ANIME,占代币总供应量的5%。ANIME将在2025年1月23日22:00(东八区时间)上线币安,并开放与USDT、USDC、BNB、FDUSD及TRY的交易对。ANIME初始流通供应量为55.39%。ANIME智能合约部署在以太坊和Arbitrum链上。
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
并且利用自身的影响力给项目带来百万流量,这是项目方最需要的,越来越多项目重视DC徽章和推特的数据的贡献,此法可以排除很多批量化女巫,同时深度用户确实更珍视自己手中的筹码,他们更愿意长期陪伴抛压更小。 后续会缩减账号,减少跟踪项目量,提高参与质量,
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
在为应用程序开发人员创建基础设施时,智能合约区块链的架构师面临着各种设计选择。这些设计选择影响构成「区块链不可能三角」的三个因素:网络可扩展性、网络安全性和网络去中心化性。例如,优先考虑可扩展性通常表现为高交易吞吐量和低费用(例如 Solana),而优先考虑去中心化和网络安全可能会导致较低的吞吐量和更高的费用(例如以太坊)。这些设计选择导致了不同的区块时间、交易吞吐量和平均交易费用
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
随着11月大选落幕,美国人民发出了声音。他们选择了唐纳德·J·特朗普(那个橙色的人)来带领他们(以及那枚橙色的币)迈向未来。我原以为这一天会来得更晚些,但事实摆在眼前。全球最富有的政府已经被加密信仰者渗透了。这意味着我们已经跨越了鸿沟。加密技术不再是一个遥不可及的梦想,而是未来商业的基石。这一刻是我们一直期待的,但也意味着加密货币原本反体制的灵魂的一部分已然消逝。如今,加密货币既是无政府主义者的工具,也是资本主义体系的一部分。
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
ETH will outperform SOL in 2025 - SOL/ETH has topped, and will continue to decline throughout 2025 • Solana has far more net sellers, as the crypto native bid becomes exhausted and slowly starts selling SOL for alts • Ethereum has had a far worse 2024, and has more marginal buyers in 2025 as ETH ETF inflows continue to surge • Even with a SOL ETF, ETF bidders are far more likely to choose ETH over SOL • Over 11M SOL will be unlocked in-the-money from the FTX estate in March
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
情感分析 输入:“I love this phone because it has an amazing battery life.” • 自注意力可以帮助模型关注 “love” 和 “amazing battery life” 的关系,判断为正面情感。 T Transformer的其他过程如前馈网络,残差连接与归一化,解码器(Decoder)处理都是为了减少误差,增加准确性或者为了语言的编码解码,这里就不多解释了。
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
问答系统 问题:“What did the animal do?” 上下文:“The animal didn’t cross the street because it was too tired.” • 自注意力可以帮助模型理解 “the animal” 和动作 “didn’t cross” 之间的关系,从而正确回答问题。
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
文本摘要 生成句子摘要时,模型需要关注哪些部分的信息更重要。例如: • 输入:“The company announced a new product launch yesterday, attracting significant media attention.” • 输出摘要可能是:“The company launched a new product.”
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
其他使用例子 机器翻译: 句子翻译中需要捕获长距离依赖关系。 例如: • 英文句子 “The cat jumped over the fence.” • 翻译成法语时,“The cat” 对应单个单词 “Le chat”,自注意力机制可以有效捕获这种映射。
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
例如: 对于 “it”,Query 是 “it” 想要寻找相关的信息(谁是指代对象)。 对于 “animal” 和 “street”,Key 表示它们提供的信息(它们的上下文语义和特性)。 计算注意力分数 对 “it” 的 Query,与每个词的 Key 计算相似性(注意力分数): 可能的结果(假设经过归一化): • “animal”:0.8 • “street”:0.1 • 其他词:更低。 生成上下文表示: 用这些注意力分数对 Value 矩阵进行加权求和,生成 “it” 的上下文表示的注意力得分: 结果分析: “it” 的上下文向量包含更多 “animal” 的信息,因为注意力机制认为它与 “it” 的关系更紧密。 具体应用场景
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
输入句子分词后为:{[“The”, “animal”, “didn{\prime}t”, “cross”, “the”, “street”, “because”, “it”, “was”, “too”, “tired”, “.”]} 生成 Query, Key 和 Value 对于每个词: Query:表示当前词要获取的信息。 Key:表示当前词提供的信息。 Value:表示当前词的实际信息。
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
大白话简单解释Transformer Transformer里面最核心的机制解释自注意力机制,这个机制是帮助AI理解句子中每个词之间的关系的核心。 让我们通过一个简单的例子来说明自注意力(Self-Attention) 的实际应用。在这里,我们以句子 “The animal didn’t cross the street because it was too tired.” 为例,展示自注意力是如何帮助模型理解句子中词语间的关系。
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
(四) 输出生成 • 生成方式:解码器每次生成一个词(或字符),作为下一次输入的前缀。 预测逻辑: 根据目标任务(如翻译、问答等),通过 softmax 函数计算概率分布,从中选取最可能的输出。
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
(三) 解码器(Decoder)处理 输入:目标序列的前缀(训练时是已知的部分,推理时是已生成的部分)。 • 主要操作: 自注意力机制:类似于编码器,但只关注目标序列中已生成的部分(通过遮挡机制实现)。 编码器-解码器注意力(Encoder-Decoder Attention): • 将解码器的中间状态与编码器输出结合,获取输入序列的上下文信息。 前馈网络与归一化:与编码器类似。
0 reply
0 recast
0 reaction

linda fa pfp
linda fa
@linda0
(二) 编码器(Encoder)处理 • 输入:处理后的词向量序列。 主要操作: 1. 自注意力机制(Self-Attention): • 计算序列中每个词与其他词之间的相关性,捕获全局上下文。 • 结果是每个词的加权表示,权重由注意力分数决定。 2. 前馈网络(Feed-Forward Network, FFN): • 对自注意力的输出进行非线性变换,进一步抽象特征。 3. 残差连接与归一化(Residual + Layer Normalization): • 稳定训练,防止梯度消失或爆炸。 堆叠多层:编码器由多个相同的层组成,每层提取更高阶特征。
0 reply
0 recast
0 reaction