足球预测 模型高效大语言模型的前世今生

2023-10-20 08:20:12 文章来源:百家号
足球预测 模型高效大语言模型的前世今生
文末《大模型项目开发线上营》秒杀!!!前20人报名,除了VIP年卡外,还多送两个大模型小课:类ChatGPT微调实战、LLM与langchain/知识图谱/数据库的实战,如已有这两课,可以选同等价位别的课‍序言随着人工 智能技术和大语言模型的快速发展,高效的大语言模型训练和推理成为了人们在自然语言处理领域追求的目标之一。 本文将带您回顾高效大语言模型的前世今生,探讨它们的演变与应用。1语言模型在计算机科学的早期阶段,人们尝试教会机器处理自然语言。1950年代,Alan Turing提出了著名的图灵测试,该测试旨在评估机器是否能以一种与人类无法区分的方式进行对话。然而,由于当时计算机性能和知识表示的限制,早期语言模型往往表现欠佳。20世纪70年代末至80年代初,随着计算机计算能力的提升,基于统计的语言模型开始受到关注。N-gram模型、隐马尔可夫模型等应运而生,通过分析大量文本语料库中的统计信息,使得计算机更加懂得语言的结构和规律。当时的模型虽然在一定程度上提升了自然语言处理的准确性,但仍然存在缺点,如对上下文的限制、处理长文本耗时较长等问题。随着深度学习技术的发展,神经网络模型改变了自然语言处理的格局并提出了多个序列到序列(Sequence-to-Sequence)的基础模型架构,比如Tran*ormer模型。凭借其强大的学习能力、并行计算的优势以及对长文本处理的能力,Tran*ormer成为了现代大语言模型的基础架构。2020年,OpenAI发布了第一个大语言模型GPT-3[1](Generative Pre-trained Tran*ormer),引起了业界的广泛关注。GPT系列模型通过大规模无监督学习,在海量的文本数据中自动学习语言的特征和规律,从而可以生成和理解自然语言。这使得高效大语言模型不仅能够应对对话和翻译等传统任务,还可以创造性地生成新的文本内容,成为了多个领域的助手。然而,基于Tran*ormer的大语言模型带来的挑战也不容忽视。其庞大的参数量和计算资源需求使得训练和部署成本变得极高;同时,模型的数据和计算复杂度也带来了隐私和安全的风险。为此,研究者们在模型优化、压缩、加密和隐私保护等方向进行了探索,以寻求更加高效和可信的解决方案。2高效的序列建模高效的序列建模可以分为四大主要路线:稀疏Tran*ormer(Sparse Trasnformer);线性Tran*ormer(Linear Tran*ormer);长卷积(Long Convolution);循环神经网络(RNN)。在以下的章节中,我们将回顾这些路线并介绍代表性方法,以及在大规模自然语言模型中应用中的难点。下图显示了高效序列建模的发展时间线。稀疏Tran*ormer稀疏Tran*ormer的核心思想是通过一些方式将稠密的注意力矩阵变稀疏从而减少理论复杂度。根据稀疏方式的不同分为Data-independent Pattern和Data-dependent Pattern。前者包括Blockwise Tran*ormer[2]、Sparse Tran*ormer[3]、Longformer[4]和Big Bird[5]。后者则包括Linformer[6]、Reformer[7]、Routing Tran*ormer[8]、Clustered Attention[9]、Sinkhorn Tran*ormer[10]。值得注意的是稀疏Tran*ormer的实际效率与显存占用与具体实现方式相关,在很多情况下相比于标准Tran*ormer在速度上有提升但是显存占用不一定符合理论分析。在LLM模型中,GPT3采用的是Sparse Tran*ormer。由于稀疏Tran*ormer的效果必然会比标准Tran*ormer差,在之后的研究中逐渐被抛弃。线性Tran*ormer线性Tran*ormer的核心思想是通过Kernel trick的方式,如上图所示,将QKV的左乘变成右乘,从而将理论计算复杂度降为线性。由于SoftMax操作中的exp(<·,·>)运算不满足(Q·K)·V = Q·(K·V)的条件,在cosFormer[11]提出之前,主流解决方案是通过一些满足条件的操作来近似SoftMax。例如RFA[12] 利用Rahimi & Recht 在2007年提出的Gaussian kernel的无偏估计来高效的近似SoftMax注意力。类似的方法还有Linear Tran*ormer[13]、Performer[14]等。这些方案的主要缺陷在于它们都是对softmax的近似,所以效果的天花板即为标准Tran*ormer。同时,因为它引入了额外的计算,所以在d (feature维度)较大的情况下相比于tran*ormer不会有太大的效率优势。实际上,在我们的实验中,大部分方法在实际场景下均比Tran*ormer慢。同时由于这些方法对于超参和网络初始化非常敏感,需要精细化的调参才能得到较好的结果,所以这些在benchmark (Long-Range Arena)的理想情况下效果不错的方法并没有研究人员把它们应用在LLM中。然而,线性Tran*ormer最大的优势在于恒定的推理速度,这样在长序列的预测中相比于Tran*ormer会有巨大的效率优势。如下图所示,Ours为一种线性Tran*ormer,在序列长度增加的情况下,保持了恒定的推理速度、显存占用;同时标准的Tran*ormer以及采用了KV Cache优化的标准Tran*ormer则在序列长度增加的情况下需要数倍至数十倍的时间和显存。在这个优势下,线性Tran*ormer作为一种有希望的高效序列建模的方向,得到了很多研究人员的关注,并期望可以在LLM下得到实际应用。这项研究的转机出现在cosFormer的提出。研究人员跳出了近似SoftMax的窠臼,采用简单的ReLU激活函数配合cosine函数对邻域加权即可得到类似于Tran*ormer的效果。这种方案极大的简化了线性Tran*ormer的计算,让实际速度超越标准Tran*ormer成为了可能。同时,由于这种方案无需近似SoftMax, 让实际效果超越Tran*ormer亦成为了可能。同年,Qin et al. 在EMNLP会议上提出了TransNormer[15],针对线性Tran*ormer效果达不到标准Tran*ormer给出了理论和实验证明,首次在小规模模型和数据集上超越了标准Tran*ormer。次年,TransNormerLLM[16]集成了多个相对位置编码以及深度的工程优化,提出Lighting Attention的线性注意力架构,首次在效率与模型精度上全面超越标准Tran*ormer,并在175B的超大规模参数和1.6T训练数据下做了初步验证,让线性Tran*ormer进入LLM成为了可能。长卷积长卷积 (LongConv) 是近期提出一种序列建模方式,其核心思想是通过设计一个核长度为整个输入序列长度的卷积神经网络来建模序列。这种方式的理论计算复杂度为 ,空间复杂度为 ,n为序列长度,d为特征维度。相比于线性Tran*ormer的 计算和空间复杂度,长卷积在特征维度较大的LLM中会有一定的速度优势。目前基于长卷积的序列建模方法有TNN[17]、H3[18]、Hyena[19]、S4[20]等,值得注意的是,著名的开源项目RWKV也可以写成长卷积的形式。其中TNN采用Toeplitz matrix来刻画相对位置信息并将其作为长卷积的卷积核。S4则采用了一个全新的基于State Space Model (S*)网络层,将序列建模成一个连续的状态空间的离散表示。然而想要将这些方法*到LLM下仍然存在各种困难。例如,LLM训练对于模型的稳定性要求非常高,然而S4因为S*的数学结构复杂,在生成卷积核的时候需要非常细致的参数初始化才能得到较好的结果,这让S4很难将参数量扩增到千亿规模。TNN虽然对参数不敏感,训练稳定,并且在fp32下相对于Tran*ormer有速度和精度的优势,但是由于其引入了fft,在fp16或者bf16下,速度都很难超越通过Flash Attention优化过的Tran*ormer。如何将TNN做进一步的IO优化使其显示出理论的计算复杂度优势是未来的研究方向之一。除此之外,长卷积的推理理论计算复杂度为O(nd log n),这让这种方法的推理速度略慢于线性Tran*ormer。最新的研究表明,长卷积都可以无损的在推理的时候转化为RNN的模式,从而让它们的推理速度与线性Tran*ormer一致。从当前的研究发现来看,长卷积是一个很有希望的,可以应用在LLM中的结构,但是仍然需要大量的工程优化使其达到理论速度。循环神经网络循环神经网络 (RNN) 是一个历史悠久的序列建模方式,其最大的优势在于恒定的推理速度:其推理速度仅跟隐状态大小相关。由于RNN的序列特性,即当前状态基于上一个状态的结果(如下图所示),使得它无法像Tran*ormer一样做到完全并行化处理,并且对GPU处理不友好,从而在深度神经网络的年代逐步被Tran*ormer给取代。然而,最近的研究表明,RNN以及它们的变种可以被大幅简化而不影响结果。Klaus et al.[21] 在2015年证明了LSTM结构中存在大量多余的门控并强调了遗忘门的重要性。Eric et al.[22] 在ICLR 2018上证明了RNN中间层的非线性并不必须。Shuai et al.[23] 2018 则证明了RNN的循环权重矩阵需要是对角阵,这样RNN不同状态之间可以保证相互独立。同年, Tao et al.[24] 在EMNLP会议上证明了在这种情况下,RNN的隐状态更新可以表示为逐元素的向量积,从而做到完全并行化处理,至此RNN重新站上深度神经网络平台。同时,这种RNN被定义为线性RNN。上文提到的S4也可以写成线性形式,另外一个比较出名的序列建模结构RWKV也归属于这一类。当前先进的RNN架构的问题在于1.绝大多数RNN在语言建模上仍然难以达到比肩Tran*ormer的水平;2. 需要非常精细化的初始化以达到较好的收敛;3. 虽然RNN的理论计算复杂度为 ,空间复杂度为 (其中d为隐空间维度大小),为所有的方法中最小,但是在实际效率上仍然难以比肩经过多年优化之后的Tran*ormer。值得注意的是,这一方法在近期的进展迅速,其中Qin提出了如下图所示的分层门控循环神经网络 HGRN[25],首次在较大规模的网络(10亿参数)和大规模语料(3000亿token)上表现出了比Tran*ormer更优的结果,且不需要精细的初始化即可进行稳定的训练,为线性RNN成为LLM的基础架构铺平了道路。3高效大语言模型进展近年来,高效序列建模的算法层出不穷,但是可以落地到大语言模型上的凤毛麟角。主要原因在于LLM的主流还是Tran*ormer架构,并且是已经优化了多年的Tran*ormer架构,甚至在硬件上都有进一步的优化,使得Tran*ormer在效率和效果上都已经接近算法的极限。相比之下,高效序列建模算法作为一个刚起步的算法,即使在理论计算复杂度上有优势,在实际应用中也很难做到效率或者效果上超过优化后的Tran*ormer。同时,训练LLM是一个综合实力的体现,不但需要专业的数据处理团队来采集并处理大量的预训练语料,研究数据配比,也需要模型并行优化工程师针对新推出的结构进行并行优化。更重要的是,训练LLM需要投入大量的资金,高效序列建模的算法往往只在小规模上进行了验证,它们是否在大规模参数和语料下保持一致的训练稳定性和优异性仍然是一个未知数。在这种情况下,采用万无一失的Tran*ormer架构远比新架构的风险低,导致在LLM竞争激烈的当前,Tran*ormer仍为LLM的首选架构。在高效大语言模型的研发上,RWKV是第一个将参数量扩充到140亿的非Tran*ormer架构的模型,其在开放语料Pile上进行了预训练,达到了和Tran*ormer相当的水准。近日,上海人工智能实验室提出TransNormerLLM,首次将线性Tran*ormer的参数量扩充到了1750亿,并实现了模型并行速度优化,在速度和精度上均超越了基于Flash attention的Tran*ormer。其中训练速度比Flash attention Tran*ormer快20%,困惑度 (ppl)比Flash attention Tran*ormer低9%。在推理速度上,如下图所示,由于TransNormerLLM的恒定的推理速度优势,在长序列上有着数倍的效率提升,且序列越长,提升越明显。LLM的效率体现在训练效率和推理效率上。由于架构的特性,TransNormerLLM在推理上对于Tran*ormer有无可比拟的速度优势,如此以来,在高效LLM的优化中,我们只需要着重考虑训练效率的提升以及推理的稳定性。根据优化方向的不同,我们将影响的LLM的训练速度的因素分为三大块:1. 网络结构优化,包括位置编码的设计、门控机制、激活函数、张量归一化的方式等;2. 算法工程优化,包括attention算子的实现方式、归一化函数的实现方式等;3. 分布式系统的优化,包括张量并行、模型并行方式的实现等。通过上述方面的高度优化,TransNormerLLM做到了在生产环境下的训练效率上超过了经过Flash attention加持的Tran*ormer架构。同时,我们提出了新的鲁棒推理算法,从理论上证明了新算法可以极大的维持LLM的推理数值稳定性。接下来,我们将介绍TransNormerLLM优化的技术细节。结构优化位置编码:线性Tran*ormer有注意力分散的先天缺陷。为了解决这个问题,原版TransNormer的解决方案是在网络的前几层采用稀疏注意力结构中的对角注意力。但是由于采用的仍然是SoftMax注意力机制,这种方案对长序列不友好,同时也舍弃了Tran*ormer中token的全局交互能力。在TransNormerLLM中,我们改进了这个方案,采用我们在TMLR 2023上提出的LRPE位置编码并结合指数衰减来达到同样的目的,同时保留token的全局交互能力。相比于绝对位置编码,我们发现采用上述的位置编码可提升10%的模型效果(ppl)。同时经过进一步的实验我们发现,只在网络的第一层加入LRPE,剩余的层采用指数衰减可以加速模型20%并且没有明显的性能损失。因此,我们最终的模型即采用的上述位置编码方案。门控机制:我们引入了门控机制来提升模型的性能和训练的稳定性。如下图所示,我们分别在GLA (Gated Linear Attention)和GLU (Gated Linear Unit)中添加了门控机制。在GLA中,我们同时对比了多种门控激活函数,相比于不添加激活函数,采用Swish激活函数可以将性能提升3%。为了加速模型,我们将GLU中的激活函数取消,我们发现在GLU中不加激活函数对模型性能影响不大。张量归一化:为了解决线性Tran*ormer中梯度无界导致训练收敛不佳的问题,TransNormer采用直接对于QKV的乘积做归一化的方式来让梯度收敛,其采用的归一化方式为RMSNorm。在TransNormerLLM中,我们发现将RMSNorm中的可学权重参数去掉并不会影响结果,为了简化模型,我们去掉了这个权重参数并将这种归一化方式称为SRMSNorm (Simple RMSNorm)。 这样,TransNormerLLM的最终结构为下左图所示。算法优化算法的性能与算法的工程优化程度高度相关,之前的高效序列建模的方法在生产环境中相比于Tran*ormer无法显示出其本身的效率优势的一大因素就是缺乏工程优化。在TransNormerLLM中,我们针对线性Attention和归一化函数做了细致的工程优化:1. 我们提出了Lightning Attention并用Triton做了大量的IO优化,实现了2倍的速度提升以及减少了3/4的显存占用;2. 我们优化了SRMSNorm的实现方式,实现了数十倍的效率提升。Lightning Attention 线性Attention的理论计算效率优势体现在QKV的右乘上,将理论计算复杂度从O(n^2d)降到了O(nd^2)。但是在语言模型中,右乘的运算需要通过一系列的对并行不友好的循环来实现,在实际的大规模并行运算中,往往比左乘更慢。所以在我们的实现中,仍然采用左乘的形式。具体算法如下:下图显示了经过我们的工程优化,当前的Triton版Lightning attention比Pytorch版提升了2倍的速度和4倍的显存优势。值得注意的是,我们也有右乘的实现,解决了右乘并行运算问题,将Lightning Attention做了进一步的加速。如下图所示,Lightning算法在常见的8k序列长度的时候已经比Tran*ormer下最先进的Flash attention 2快了1倍,当序列长度继续增加的时候,Lightning attention的优势持续增大,在132k下达到了十倍以上的差异。SRMSNorm 类似于Lightning Attention,我们同样对于SRMSNorm做了工程优化,如下图所示,我们的Triton版SRMSNorm相比于Pytorch版实现的令人惊异的优势。系统优化我们的TransNormerLLM模型采用Fully Sharded Data Parallel (FSDP)技术来在整个集群中分配参数、梯度和优化器状态。我们也采用了Activation Checkpointing技术来减少误差反传的显存占用。另外,不同于之前的高效序列建模方法往往只能工作在fp32下或者只在fp32下才能显示出效率优势,我们的算法实现了Automatic Mixed Precision (AMP)来减少显存开销,并且在BFloat16下同样显示出了训练的高效性和稳定性。除此之外,我们还针对TransNormerLLM做了模型并行。值得注意的是,由于Tran*ormer跟TransNormer在网络基础架构上的差异,我们无法沿用之前Tran*ormer的模型并行方案,但是我们的模型并行很大程度上受到了Nvidia 的 MegatronLM 模型并行的启发。在传统Tran*ormer架构中,每一层都包括一个自注意力模块和两层多层感知器(MLP)模块,使用时Megatron-LM在这两个模块上独立使用模型并行。同样,TransNormerLLM每一层也包含两个模块SGLU和GLA,我们分别对每个模块执行模型并行。下图我们对比了不同的模型大小和速度,以及最大的训练序列长度。推理优化线性Tran*ormer的一大优势就是在推理的时候可以转化为RNN的形式,让推理速度跟序列长度无关。但是在实际中我们发现,直接的转化(下图左)会造成数值精度不稳定问题。为了解决这个问题,我们提出了一个新的鲁棒推理算法(下图右)来保证推理时候的数值稳定性。4数据处理LLM的最终效果跟模型结构和预训练数据相关。其中,预训练数据的质量与数量对最终LLM的效果的影响远大与模型结构。我们在标准学术数据集的评测中已经展现出了当前的模型结构无论在效率还是效果上均优于Tran*ormer架构,为了训练高质量的高效LLM模型,我们仍然需要高质量的预训练数据来训练LLM。由于当前各个公司和研究机构的LLM的预训练语料都处于非公开状态,我们独立从互联网上收集了大量可公开访问的文本,总计超过 700TB。收集到的数据经过我们如下图所示的数据预处理程序进行处理,留下 6TB 的清理语料库,其中包含大约 2 万亿个token。我们的数据预处理过程包括三个步骤:1). 基于规则的过滤,2). 重复数据删除、和 3). 自清洁过滤。具体数据处理方法见论文。在添加到训练语料库之前,清理后的语料库需要由人类来评价。我们最终的数据分布如下图所示:5Benchmark结果我们在自己的预训练数据集上训练了385M,1B,以及7B大小的模型,并在标准的LLM学术Benchmark上评测了我们的结果。针对常识性任务,我们选取BoolQ, PIQA, SIQA, HellaSwag, WinoGrande, ARC easy and challenge, 和OpenBookQA Benchmarks。我们采用0-shot LM-Eval-Harness作为我们的评测方式。对于综合任务,我们选取5-shot 的MMLU,CMMLU和C-Eval Benchmark的结果作为我们的中英文评测结果。 如下表所示,我们的模型在385M,1B,7B均体现出了非常有竞争力的结果。在英文上,我们的模型仅次于LLaMA2,ChatGLM2,和Baichuan2;在中文上,我们仅次于ChatGLM2和Baichuan2。其中PS表示模型大小,单位是Billion,T表示训练的token数,单位是Trillion。HS表示HellaSwag,WG表示WinoGrande。值得注意的是,当前我们的7B模型在预训练阶段的序列长度为8K。在我们的Lightning Attention V2中,已经实现了训练速度与序列长度无关,所以未来的TransNormerLLM将可以采用硬件限制下的最大预训练长度,在无损速度的情况下进行全量预训练。6高效大语言模型展望无可否认,TransNormerLLM的提出和开源将是大语言模型发展历程中的重要里程碑。而这一转变,预示着我们正从标准Tran*ormer架构的优化阶段步入到高效大语言模型的优化上。我们相信,在广大研究者的共同努力下,高效大语言模型的技术将日臻成熟,应用领域将更加广泛。这样的变革,如同一场盛大的交响乐,我们期待着下一个音符的出现,期待着高效大语言模型的下一个篇章。7相关资料论文地址:https://openreview.net/pdf?id=OROKjdAfjs开源代码:https://github.com/OpenNLPLab/TransnormerLLM开源模型:https://huggingface.co/OpenNLPLab参考文献:Language Models are Few-Shot Learners: https://arxiv.org/abs/2005.14165Blockwise Self-Attention for Long Document Understanding: https://arxiv.org/abs/1911.02972Generating Long Sequences with Sparse Tran*ormers: https://arxiv.org/abs/1904.10509Longformer: The Long-Document Tran*ormer: https://arxiv.org/abs/2004.05150[5]Big Bird: Tran*ormers for Longer Sequences: https://arxiv.org/abs/2007.14062[6]Linformer: Self-attention with linear complexity: https://arxiv.org/abs/2006.04768[7]Reformer: The efficient tran*ormer: https://arxiv.org/abs/2001.04451[8]Efficient content-based sparse attention with routing tran*ormers: https://arxiv.org/abs/2003.05997[9]Fast tran*ormers with clustered attention: https://arxiv.org/abs/2007.04825[10]Sparse sinkhorn attention: https://arxiv.org/abs/2002.11296[11]co*ormer: Rethinking softmax in attention: https://arxiv.org/abs/2202.08791[12]Random feature attention: https://arxiv.org/abs/2103.02143[13]Tran*ormers are RNNs: Fast Autoregressive Tran*ormers with Linear Attention: https://arxiv.org/abs/2006.16236[14]Rethinking attention with performers: https://arxiv.org/abs/2009.14794[15]The devil in linear tran*ormer: https://arxiv.org/abs/2210.10340[16]Scaling TransNormer to 175 Billion Parameters: https://arxiv.org/abs/2307.14995[17]Toeplitz Neural Network for Sequence Modeling: https://arxiv.org/abs/2305.04749Hungry Hungry Hippos: Towards Language Modeling with State Space Models: https://arxiv.org/abs/2212.14052Hyena Hierarchy: Towards Larger Convolutional Language Models: https://arxiv.org/abs/2302.10866Efficiently Modeling Long Sequences with Structured State Spaces: https://arxiv.org/abs/2111.00396[21]LSTM: A Search Space Odyssey: https://arxiv.org/abs/1503.04069[22]Parallelizing Linear Recurrent Neural Nets Over Sequence Length: https://arxiv.org/abs/1709.04057[23]Independently Recurrent Neural Network (IndRNN): Building A Longer and Deeper RNN: https://arxiv.org/abs/1803.04831[24]Simple Recurrent Units for Highly Parallelizable Recurrence: https://arxiv.org/abs/1709.02755[25]Hierarchically Gated Recurrent Neural Network for Sequence Modeling: https://neurips.cc/virtual/2023/poster/71783更多大模型内容在「大模型项目开发线上营」前20人报名,除了VIP年卡外,还多送两个大模型小课:类ChatGPT微调实战、LLM与langchain/知识图谱/数据库的实战,如已有这两课,可以选同等价位别的课↓↓↓扫码抢购↓↓↓课程*可找苏苏老师VX:julyedukefu008或七月*其他老师

免责声明:本文及图片仅供学习研究之用,版权归属原作者,未经许可不得转载,不得用于任何商业用途。

文章链接:https://news.vzhan310.com/details/1817040

更多相关资讯
Read More
体图:枪手米兰拜仁皇马蓝军关注塞斯科,今夏7000万欧报价可离队

2月13日 莱比锡前锋塞斯科凭借本赛季出色的表现受到多家欧洲豪强球队的关注,德媒《体育图片报》报道称,球员与俱乐部在此前续约时达成了一项君子协议,他今夏可以在报价达到7000万欧时离队。

报道中表示,阿森纳在本赛季冬窗就将塞斯科放在目标列表上,当时英格兰媒体报道莱比锡要价1.3亿欧,不过事实上:当时并没有具体的问价到来,这名前锋无论如何也不会被允许离开。主帅罗泽表示:“他对我们来说是一名重要的球员,我们没有打算放走他,而是对他有很大的计划。”

但是:双方仍然可能在本赛季结束后分手。因为在塞斯科此前续约到2029年时,他们达成了一项君子协议:球员可以在夏天以7000万欧的价格离队。不过报道中也指出,由于这并不是一个固定的解约金条款,因此莱比锡方面期待多支对塞斯科感兴趣的俱乐部进行竞价,让他们最终获得1亿欧左右的转会费。

目前阿森纳仍然被认为是塞斯科最热门的竞争者,在米兰则是伊布已经在探听他的情况。这名21岁的前锋也在拜仁的名单上,同样地切尔西和皇马近来也在密切地关注着他。

据悉自哈兰德和曼城签下了到2034年才结束的合约之后,塞斯科就一直都在皇马的名单上。巧的是:当年在萨尔茨堡红牛,塞斯科就是哈兰德的继任者,此后也一直被拿来与哈兰德进行比较——他的条件甚至被认为更好。

塞斯科目前的市场身价为5000万欧,莱比锡在2023年花费2400万欧签下了他,报道中表示如果将他出售,萨尔茨堡红牛将会获得100万欧左右的分成。本赛季至今,塞斯科出战30场比赛,在其中打进15球并有4次助攻,尽管他也有一段表现低迷的时候,但这并没有阻止一些顶级球队对他感兴趣。

2025-02-13 14:10:54 文章来源:即嗨
Read More
阿斯:劳尔-阿森西奥有望进入西班牙国家队,未来他将搭档库巴西

2月13日 据《阿斯报》报道,皇马新星劳尔-阿森西奥有望进入西班牙国家队,未来他将与巴萨的库巴西组成中卫搭档。

据悉,西班牙主帅德拉富恩特非常关注劳尔-阿森西奥的表现,这位皇马后卫在与曼城的对决中发挥出色,惊艳了所有人。

目前,勒诺尔芒和拉波尔特的中卫组合依然是德拉富恩特的第一选择,同时,西班牙队也会尝试使用其他球员。而劳尔-阿森西奥和库巴西的搭档被认为是西班牙队未来的后防保证,在能力上,两人有很多相似的地方,他们速度快而且预判能力强。

3月欧国联四分之一决赛,西班牙队将迎来与荷兰队的两回合较量。在此之前,德拉富恩特将要决定是征召劳尔-阿森西奥进入成年队,还是把他让给西班牙U21,这类似于国家队对库巴西的使用。

然而,首要问题在于皇马在今年夏天还有世俱杯的赛事,参与该项杯赛的球队不被强制放行球员到国家队。若西班牙队淘汰荷兰队,那么斗牛士军团也将会在夏天参加欧国联四强战。事实上,皇马在中后卫的位置上用人紧张,球队非常依赖劳尔-阿森西奥,不管球员进入成年国家队还是U21,这对皇马而言都属于一种风险。

2025-02-13 14:10:07 文章来源:即嗨
Read More
德科:亚马尔是非卖品他将留在巴萨 继续有好成绩也将续约弗里克

2月13日 巴萨总监德科接受了西班牙TV3的专访,期间他谈到了关于亚马尔、莱万和弗里克的续约问题。

亚马尔

“亚马尔是我们的重要成员,他是无价的,不存在任何交易的讨论。俱乐部没有收到报价,因为我们根本不想谈判这个。我肯定,他将一直留在巴萨很多年,就像佩德里和加维那样。亚马尔是其中一位最特殊的球员,他不仅拥有极高的天赋,而且精神属性也很强。俱乐部应为此开展工作了,而亚马尔将在这里待上很多年。”

莱万

“莱万对我们而言是多么地重要,只要他感到高兴就能留在这里。或许明天他可能会改变主意,你们记者应该去问一问他。他在这里的确过得很开心,包括他的家人也同样如此,他们已经有了计划。莱万是我见过的最职业的球员之一,他也是世界上其中一名最佳前锋。”

弗里克

“我能理解大家对现在的成绩感到欣喜,但我们得更加理智一些。如果继续拿到好的成绩,而我们与主教练也感到互相满意,那么他将继续在这里执教很多年。”

2025-02-13 14:09:29 文章来源:即嗨
Read More
危?欧冠附加赛意甲3队2负1胜,德甲双胜&法甲或仅巴黎晋级

2月13日 欧冠淘汰赛附加赛首回合已经全部完赛,意甲球队的整体情况不太乐观。

意甲是参加附加赛球队并列最多的联赛,3队首回合仅取得2负1胜:米兰和亚特兰大均在客场负于非五大联赛对手,不过他们下回合都将回到主场;尤文尽管2-1险胜埃因霍温,但次回合将奔赴客场作战。

同样有3队参赛的还有法甲,不过其中包括一场内战,巴黎首回合客场3-0完胜布雷斯特,预计晋级悬念不大;而摩纳哥则在主场0-1负于本菲卡,次回合能否翻盘仍未可知。

德甲参赛的两队,多特首回合客场3-0完胜葡体,一只脚已经迈入16强战;拜仁客场2-1小胜,次回合回到主场的晋级形势也被普遍看好。

而作为附加赛阶段各自联赛的独苗,皇马和曼城的次回合比赛依然值得期待,不过回到主场又1球领先的皇马显然占据了晋级先机。

2025-02-13 14:06:47 文章来源:即嗨
Read More
亨利:要是登贝莱能一直有这么好的状态,那法国队可太强了

2月13日 奥斯曼-登贝莱本赛季表现抢眼,他在代表球队参加的各项赛事28场比赛中,贡献了23粒进球和6次助攻。法国传奇球星亨利在CBS Sport的一档节目上对登贝莱的表现给予了肯定,他强调如果登贝莱能继续保持这么好的状态,那么这支法国队就太强了。

亨利表示:“他的表现太疯狂了。他之前并没有这么好的状态。他的踢球风格,他在场上所施加的压力,他可以胜任多个位置……他能突破过人,不管面对的是谁都能轻松摆脱,不过之前在一对一的时候,他有时却犯了错。”

“我开始认真分析他近期的火热状态了。他以后必须每个赛季都证明自己。以前的时候,人们只要求他能射正就够了。我们对他的评论已经从‘你能不能射正’进步到了‘他进了很多球’。这太疯狂了。我为他感到高兴。如果他继续保持这样的状态,法国队将会非常强大。”亨利总结道。

2025-02-13 14:06:09 文章来源:即嗨
Read More
镜报列阿森纳可签的自由前锋:迭戈-科斯塔、马里亚诺、贝拉在列

2月13日 《镜报》发文,列举了6位阿森纳可以考虑的自由身前锋,迭戈-科斯塔、卡洛斯-贝拉和马里亚诺-迪亚斯等人在列。

随着哈弗茨的受伤,阿森纳锋线现在人手紧缺,《镜报》表示,枪手可以考虑以下六位自由身前锋。

1、马里亚诺-迪亚斯:31岁的马里亚诺曾两度效力皇马,上赛季末离开塞维利亚后,他至今未找到工作。

2、马克西-戈麦斯:28岁的马克西-戈麦斯曾代表乌拉圭国家队参加2022年世界杯,他的生涯主要效力于塞尔塔和瓦伦西亚,去年夏天他离开特拉布宗。

3、卡洛斯-贝拉:贝拉出自阿森纳青训营,他曾被寄予厚望,但除了2008年的杯赛帽子戏法之外,他在阿森纳并没有给人留下太多深刻的印象。过去6年,贝拉效力于大联盟的洛杉矶FC,为球队出场152次,打进78球,是洛杉矶FC的队史头号射手,贝拉最近一场比赛是2024年10月。

4、卢卡斯-佩雷斯:又一位阿森纳旧将,在枪手的首个赛季,他曾在欧冠上演帽子戏法,但他在出场21次后,于2018年离队。现年36岁的佩雷斯在今年1月因个人原因离开了拉科鲁尼亚,所以目前仍不清楚他是否愿意回归足坛,尤其是在远离故乡西班牙的地方。

5、迭戈-科斯塔:狼队2022年也曾遇到阿森纳目前的窘境,之后他们签下了迭戈-科斯塔。这位西班牙前锋已不再是当年帮助切尔西赢得英超冠军的那个男人,在狼队效力期间,他只打进了1球。在巴西,迭戈-科斯塔的表现好一些,2024年他为格雷米奥打进了8球,但他在12月离开球队后成为了自由球员。

6、林德罗-达米奥:你肯定没想到你还会再次看到达米奥的名字吧?达米奥年轻的时候曾与英超球队传出过绯闻,热刺就经常与他联系在一起,但现在达米奥已经35岁,在离开科里蒂巴之后无球可踢。

2025-02-13 14:05:35 文章来源:即嗨
Read More
温格:杜兰选择加盟沙特联赛让我感到惊讶,不过还是要恭喜他

2月13日 据《镜报》报道,温格在接受采访时谈及了杜兰。

温格表示,自己对于杜兰在一月份以7700万欧元加盟利雅得胜利的交易感到惊讶。在效力阿斯顿维拉的两年里,杜兰的表现给人留下了深刻的印象,这也引起了英超以及其他联赛球队的关注。

今年夏天,阿斯顿维拉拒绝了西汉姆对于杜兰的报价,杜兰在本赛季上半阶段的比赛中贡献了12个进球,但今年冬窗利雅得胜利开出了一份7700万欧元的报价,阿斯顿维拉同意了这笔交易。

在谈及这笔交易时,温格表示:“杜兰是一名很年轻的球员,他在阿斯顿维拉踢球,并在那里受到爱戴。但令人惊讶的是,杜兰在冬窗选择加盟沙特的职业联赛,不过我还是要恭喜杜兰,他们在那里做得很好。

“对我来说,沙特联赛和利雅得胜利都有很棒的教练,也有很棒的球员,世界头号球员C罗就在那里,他是每个年轻球员的榜样。因此,取得好成绩的基本要素是存在的。总的来说,他们有大俱乐部、明星球员以及优秀的员工,当然在财务方面也非常有潜力。但最重要的,他们在这里做出了好的决定。”

2025-02-13 14:05:08 文章来源:即嗨
Read More
帕尔默:我知道自己能追平上赛季造33球的数据 平时不会练点球

2月13日 帕尔默日前接受了切尔西官网采访,并谈到自己本赛季的状态。

本赛季至今,帕尔默已经贡献14球6助,一共参与了20球,他正在追逐着自己上赛季的参与33球数据。

帕尔默说道:“我没有想到会这么快取得这种数据,但我知道自己能做到的。我只尝试每天努力工作,听教练的话,我只想踢足球。”

“我认为我们本赛季开局很顺利,之后球队状态遇到一点下滑,但我们正在尝试找回状态。”

“我之前就认识马雷斯卡,所以能够再次与他合作很棒。显然,主教练告诉了我们怎么踢,我们要做的就是去场上按计划执行。我和主教练以及队友们的关系很好,我们很亲密。”

最后,帕尔默谈到自己罚点球的准确度,他表示这靠的是冷静和天赋,而不是练习。他说道:“我不练点球,或许赛前一天我会在训练里罚三个点球,但点球通常不是我会练的项目。但只要我能进球,我不介意球是怎么进的。”

2025-02-13 14:04:45 文章来源:即嗨
Read More
赚豪门的钱,打豪门的脸,布莱顿咋这么能耐呢?

创俱乐部引援纪录的吕特扳平了比分,刚刚拒绝了沙特豪门邀约的三笘薰打进反超球,布莱顿主场击败切尔西,强势闯入足总杯16强。在海鸥球员欢庆胜利的背景中,库库雷利亚、凯塞多和罗伯托-桑切斯沮丧不已,三名球员带着复杂心情回到熟悉的球场,不幸成为了老东家成功晋级时的背景板。既要赚豪门的钱,还要打豪门的脸,这就是布莱顿的足球,这只振翅高飞的“海鸥”正在改变英超的格局。

【“黑店”模式玩够了,这是要开启宏大叙事了?】

在124年的队史中,布莱顿长期徘徊于低级别联赛,唯一的顶级联赛经历(1979-1983)没有任何亮点可言。2016/17赛季升入英超之后,海鸥军团在保级圈周围挣扎了四个赛季,期间没有高价出售球员的经历,卖出的身价唯一超过千万欧元的球员就是科诺凯特(1170万欧元)。以2021夏窗出售本-怀特(5850万欧元)为标志,布莱顿成为顶级豪门供货商,麦卡利斯特、凯塞多、比苏马、库库雷利亚、罗伯托-桑切斯、昂达夫和特罗萨德等人共计为东家创收近4亿欧元。

逐渐脱离保级圈之后,布莱顿靠着一波出售球员带来的资金,完成了对运通球场的升级改造,落户了新的培训和学院设施、俱乐部女队中心。

不断出售明星球员创收的过程中,布莱顿的成绩稳步提升。波特离任前已经将海鸥军团带到了联盟中游,德泽尔比率队首次进军欧战赛场。随着曼联和热刺的滑坡,由Big6垄断欧战资格的局面瓦解,不断有渴望进阶的中产球队进入头部序列。纽卡斯尔和阿斯顿维拉珠玉在前,布莱顿也加入了追赶历史潮流的大军。

就在人们认为布莱顿只是一家“黑店”的时候,布鲁姆令旗一挥,海鸥军团大手笔买人,成为了本赛季引援投入最多的英超球队。

夏天投入2.31亿欧元引进9名球员,冬天又拿出4900万欧元签入3名球员,布莱顿本赛季收获的新援可以拼凑出一套首发,这让他们超越切尔西和曼城,成为本赛季引援投入最多的英超球队。当年出售本-怀特、比苏马和库库雷利亚来筹钱营建新球场的故事恍如昨日,曾经精于创收的球星工厂已经变身为烧钱大户。

【大数据的这一套,潮人老板早就玩透了】

新时代的英超半壁江山已经被美资拿下,有别于那些早已在北美体坛修炼成精的大佬,布莱顿老板托尼-布鲁姆更像是一位潮人玩家。在这一波人工智能浪潮席卷全球之前,布鲁姆便已经掌握了数据蒸馏技术。基于当年依靠数据分析法纵横博彩业的经验,布鲁姆深信俱乐部需要建立在配合默契的各个部门基础上,决策层的数据收集和分析能够将直接决定竞技层面的成败。

布鲁姆发明了“老板负责制”的全新引援模式,依靠自创的大数据系统主导引援就是他的乐趣所在。

早在征战英冠时期,布莱顿便破费重金请来数学家、逻辑学家和计算机高手打造了球探平台,通过与专业足球网站的合作建立了完善的球员数据库。布莱顿的“魔球”体系覆盖范围极大,会将FIFA排名前100位国家的俱乐部和梯队球员全部纳入考察范围,逐渐形成了依靠“多国部队”打天下的风格。

上赛季,布莱顿一线队的球员来自21个国家。

布鲁姆会招募大量高级球探和兼职分析师组成决策团队,他们不需要到现场观赛,而是通过海量的信息分析来筛选球员。布莱顿选择与经纪人和第三方势力深度合作,从而拿到来自转会市场的第一手情报,他们愿意为成长潜力较大的新秀支付重金,也会从合同入手建立起相互信任的宾主关系。

在登陆英超之前,三笘薰在圣吉罗斯联合练级。

就像当年南安普顿的“黑匣子”系统一样,布莱顿会为重要的轮换球员预留多个备选方案,只有“备胎”到位后才会启动卖人程序。为了帮助培养年轻球员积累经验,布鲁姆让比利时球队圣吉罗斯成为了海鸥军团的卫星队,这里成为很多日本、非洲和南美球员登陆欧洲后的首站,他们在这里获得劳工证,为征战英超做准备。

布莱顿的“魔球”系统除了寻找球员,还能挖掘出业务能力极强的主帅。波特和许尔策勒在登陆英超之前只有低级别联赛执教经验,德泽尔比在萨索洛和顿涅茨克矿工期间的经历曾引发巨大争议,当他们的“硬件”数据满足布莱顿的要求后,布鲁姆毫不犹豫地拍板签约。在俱乐部的日常运转中,布鲁姆不会干涉主帅具体的用兵,波特和德泽尔比都是在这种宽松的环境中证明了自己,赢得了豪门邀约。

【给豪门上课,真有牌面!】

随着大量外资的涌入,英超俱乐部的引援模式产生了巨大变化,传统的英式Manager 失去了生存土壤,现代的职业经理人也暴露出了明显缺陷,很多球队都在寻找一些折中方案,比如建立引援小组和转会委员会等。布莱顿的转会体系直接由布鲁姆负责,老搭档保罗-巴伯是他的助手,这种扁平化的架构便于信息传达,可以充分调动各方面资源,降低新援变“水货”的风险,工作效率极高。

布莱顿的成功引来了很多同行的效仿,布伦特福德和水晶宫已经打造出了相似的球探体系,曼联在滕哈赫任内建立起兼职球探制度,切尔西更是直接请来了跟随布鲁姆多年的保罗-温斯坦利,由其牵头建立引援小组。即便还没有过硬的锦标入账,布鲁姆的球队已经为了英超榜样。

就在诸强开始学习布莱顿的“黑店”模式时,布鲁姆的球队已经开始着手通过大手笔的引援来提升联赛排位,他们要始终走在别人前面。

过去数年间,莱斯特、西汉姆和埃弗顿等队都为跨越阶层做出了巨大努力,最终都在经历高光时刻后流于平庸。先驱者带来的教训引人深思,布莱顿跳出了经验主义的牢笼,抓住了时代的风口,为盛世英超平添了一抹亮色。

2025-02-13 14:04:18 文章来源:即嗨
Read More
北青体育:伊万与米卢一同为中国金球奖颁奖,他还将考察杭州奥体

2月13日 据北青体育报道,国足主帅伊万抵达杭州与米卢共同为中国金球奖颁奖,他还将考察杭州奥体中心。

在2月12日晚进行的U20亚洲杯揭幕战中,中国U20队以2-1力克卡塔尔队,取得开门红,伊万和米卢都专程前往深圳观赛。据北青体育记者了解,对于U20国足小伙子们的表现,伊万赛后给出了较高评价,认为相当一部分球员颇具发展潜质,他也相信U20国足有能力打好接下来的比赛,从而向U20世界杯入场券发起冲击。

13日一早,伊万便从深圳赶往杭州,据了解,伊万赴杭州参加2024中国金球奖颁奖活动。作为颁奖嘉宾,他将与米卢一同为中国金球奖(最佳男足球员)颁奖,武磊、张玉宁、谢文能是该奖项的3名候选人。这3名球员都是伊万的爱将,因此无论将奖项颁给谁,伊万都会觉得欣慰。

除参加颁奖活动外,伊万杭州之行还有另一项重任,考察3月18强赛对阵澳大利亚队的比赛场地杭州奥体中心体育场,及赛区其它各方面的办赛条件。事实上,从2月7日赴昆山观战超级杯,到前往深圳U20亚洲杯赛场“寻宝”,再到赴杭州考察,伊万近期所有工作都是为了满足国足3月战役的需要。

12日晚些时候,国足体能教练斯蒂利诺维奇通过个人社交平台透露,他已经抵达18强赛第7轮客战沙特队的比赛地利雅得,对赛区气候条件、训练与比赛场地、驻地酒店的情况做了全方位了解。

结束短短1天杭州之行后,伊万将重返深圳,继续考察U20国足的表现,寻找可能补充到国足的潜力之星。

2025-02-13 14:03:10 文章来源:即嗨
最新文章
Read More
足球预测 模型“离开热刺后快乐足球”
发布时间:2023-10-20 08:20:12
Read More
洛杉矶湖人vs菲尼克斯太阳_过往战绩三消息:里弗斯将执教太阳,尼克斯有意恩比德,湖人G3迎三大利好
发布时间:2023-10-20 08:20:12
Read More
萨克拉门托国王vs犹他爵士_今日分析
发布时间:2023-10-20 08:20:12
Read More
萨克拉门托国王vs犹他爵士_今日分析
发布时间:2023-10-20 08:20:12
Read More
洛杉矶湖人vs菲尼克斯太阳_过往战绩湖人顺服太阳防守,三巨头冲冠!杜兰特表忠心
发布时间:2023-10-20 08:20:12
Read More
洛杉矶湖人vs菲尼克斯太阳_过往战绩菲尼克斯太阳VS丹佛掘金 昨日全√ 状态爆红 稳定连红!
发布时间:2023-10-20 08:20:12
Read More
洛杉矶湖人vs菲尼克斯太阳_今日分析今日关注:NBA 菲尼克斯太阳VS洛杉矶湖人
发布时间:2023-10-20 08:20:12
Read More
洛杉矶湖人vs菲尼克斯太阳_过往战绩湖人消息:浓眉成熟发声,拉塞尔新合同曝光,战尼克斯出场更新
发布时间:2023-10-20 08:20:12
Read More
洛杉矶湖人vs菲尼克斯太阳_今日分析季后赛首轮预测!苏群给出答案:湖人4-1太阳,快船抢七晋级
发布时间:2023-10-20 08:20:12
Read More
洛杉矶快船vs丹佛掘金_直播在线看NBA常规赛(速球吧)直播:掘金VS湖人高清在线观看附全场录像回放
发布时间:2023-10-20 08:20:12