百度360必应搜狗淘宝本站头条

conv1d

    Matlab和Python环境下的深度学习小项目

    MATLAB环境下基于深度学习的图像去块(ImageDeblocking)该算法程序训练一个经典的降噪卷积神经网络(DnCNN),并使用DnCNN网络减少JPEG压缩伪影(compresaionartifact)。...

    PyTorch入门与实战——模型初始化05

    PyTorch入门与实战系列...

    TimeDART:基于扩散自回归Transformer 的自监督时间序列预测方法

    近年来,随着机器学习技术的进步,深度神经网络已经成为解决时间序列预测问题的主流方法。这反映了学术界和工业界在利用先进技术处理序列数据复杂性方面的持续努力。自监督学习概述基本定义自监督学习是一种创新的学习范式,其特点是模型能够从未标记数据中通过内部生成的监督信号进行学习,通常这种学习通过...

    深入学习Keras中Sequential模型及方法

    Sequential序贯模型  序贯模型是函数式模型的简略版,为最简单的线性、从头到尾的结构顺序,不分叉,是多个网络层的线性堆叠。  Keras实现了很多层,包括core核心层,Convolution卷积层、Pooling池化层等非常丰富有趣的网络结构。我们可以通过将层的列表传递给Sequenti...

    LSTM 和 TCN 能记住多长时间的依赖关系?

    LSTM是序列建模任务(例如语言建模和时间序列预测)中广泛使用的技术。此类任务通常具有长期记忆和短期记忆,因此学习两种模式以进行准确预测和估计非常重要。基于Transformers的技术正在兴起,这种技术有助于对长期依赖进行建模并且比lstm好得多,但由于需要大量数据的训练和部署复杂性,T...

    Keras中的神经网络层及其应用指南

    随着神经网络的发展,现在有大量的神经网络层类型。在本文中,我将介绍几个神经网络层,解释它们的作用和工作方式,并在Python流行的机器学习库Keras中展示它们的应用。CoreLayers...

    基于深度学习的词语级中文唇语识别

    ...

    Mamba线性时间序列框架超越Transformer模型?注意力机制如何翻身

    最近一个火爆AI圈的一个线性时间序列模型框架Mamba引起了大家的讨论,由于其性能在相关的实验上超越了transformer模型,让人不禁讨论注意力机制是否是大模型唯一的出路。transformer模型与mamba模型的大战也是一触即发,很多小伙伴们已经开始尝试把项目转移到mamba框架上。且mam...

    深度信号处理:利用卷积神经网络测量距离

    在信号处理中,有时需要测量信号某些特征(例如峰)之间的水平距离。一个很好的例子就是解释心电图(ECG),这在很大程度上取决于测量距离。我们将考虑下图中只有两个峰的平滑信号的一个样例。解决这个问题很简单,可以通过找到峰值,然后减去它们的X坐标来测量它们之间的水平距离来解决。这可以通过使用可用的工具...

    「他山之石」PointNet论文复现及代码详解

    “他山之石,可以攻玉”,站在巨人的肩膀才能看得更高,走得更远。在科研的道路上,更需借助东风才能更快前行。为此,我们特别搜集整理了一些实用的代码链接,数据集,软件,编程技巧等,开辟“他山之石”专栏,助你乘风破浪,一路奋勇向前,敬请关注。作者:知乎-摸鱼家...