微调Hugging Face中图像分类模型 前言 本文主要针对Hugging Face平台中的图像分类模型,在自己数据集上进行微调,预训练模型为Google的vit-base-patch16-224模型,模型简介页面。 代码运行于kaggle平台上,使用平台免费GPU,型号P100,笔记本地址,欢迎大家copy & edit。 Github项目地址,Hugging Face模型
基于tsfresh包的单类时间序列特征提取 前言 时间序列特征提取包中tsfresh较为流行,但是其官方教程给出的例子是机器人故障的数据集,其中的id列为各组不同的实验。然后我就一直在想能否做单类的,比如电力预测,或者是某一条街道的交通预测,但是翻遍了文档都没找到,后来在github项目文件中找到了做单类预测的示例文件 我当时有这个想法的时候查过CSDN上的其他有关tsfresh包的教程,大
时间序列模型SCINet模型(自定义项目) 前言 读完代码解析篇,我们针对开源项目中的模型预测方法做一下介绍。Github源码下载地址 下载数据集ETTh、PEMS、Traffic、Splar-Energy、Electricity、Exchange-Rate,这几类公共数据集的任意一类就行。这里以ETTh数据集为例,先在项目文件夹下新建datasets文件夹,然后将数据集移至其中 打开
前言 由五名研究人员和工程师组成的团队发布了《Deep Learning Tuning Playbook》,来自他们自己训练神经网络的实验结果以及工程师的一些实践建议,目前在Github上已有1.5k星。原项目地址 本文为《Deep Learning Tuning Playbook》中文翻译版本,全程手打,非机翻。因为本人知识水平有限,翻译过程中可能有误,随时欢迎大家指出错误,我会随时更正
简单双向LSTM模型实战项目 前言 数据来自于kaggle比赛Ventilator Pressure Prediction,数据背景介绍请看官方说明代码来自于当前排名第一的团队Shujun, Kha, Zidmie, Gilles, B,他们在获得第一名的成绩以后发了一篇博客,提供了他们在比赛中使用的模型,包括LSTM CNN transformer、PID Controller Matchi
摘要 基础模型的核心是“更多不同”的理念,计算机视觉和自然语言处理方面的出色表现就是例证。然而,Transformer模型的优化和固有复杂性的挑战要求范式向简单性转变。在本文中,我们介绍了VanillaNET,这是一种设计优雅的神经网络架构。通过避免高深度、shortcuts和自注意力等复杂操作,VanillaNet简洁明了但功能强大。每一层都经过精心设计,非线性激活函数在训练后被修剪以恢复原始
前言 因为使用Stable Diffusion进行AI绘图需要GPU,这让其应用得到了限制 本文介绍如何在Kaggle中部署Stable Diffusion,并使用免费的P100 GPU进行推理(每周可免费使用30小时),部署好后可以在任意移动端使用。 本项目在stable-diffusion-webui-kaggle基础上进行改进,原作者Github项目地址 欢迎大家Copy and
摘要 时间序列分析在天气预报、异常检测和动作识别等广泛应用中具有极其重要的意义。本文重点研究时间变量建模,这是广泛分析任务的共同关键问题。以前的方法试图直接从一维时间序列完成此操作,由于错综复杂的时间模式,这极具挑战性。基于对时间序列中多周期的观察,我们将复杂的时间变化拆分为多个周期内(intraperiod)和周期间变化(interperiod-variation)。为了解决一维时间序列在表达
前言 TimesNet:用于一般时间序列分析的时间二维变化模型论文下载地址,Github项目地址,论文解读系列 本文针对TimesNet模型参数与模型架构开源代码进行讲解,本人水平有限,若出现解读错误,欢迎指出 开源代码中分别实现长短期序列预测、插补、异常检测、分类任务,本文针对长短期序列预测为例进行讲解。 后面会推出自定义项目,以及使用NNI框架对模型关键参数进行调节,也可能会推出模
前言 模型剪枝(Model Pruning)是一种用于减少神经网络模型尺寸和计算复杂度的技术。通过剪枝,可以去除模型中冗余的参数和连接,从而减小模型的存储需求和推理时间,同时保持模型的性能。 模型剪枝的一般步骤: 训练初始模型:训练一个初始的神经网络模型 评估参数重要性:计算每个参数的重要性指标来评估参数的贡献程度 剪枝冗余参数:根据阈值将参数置零,或者直接将对应的连接删除,从而
A Time Series is Worth 64 Words(PatchTST模型)代码解析 前言 A Time Series is Worth 64 Words论文下载地址,Github项目地址,论文解读系列 本文针对PatchTST模型参数与模型架构开源代码进行讲解,本人水平有限,若出现解读错误,欢迎指出 开源代码中分别实现了监督学习(PatchTST_supervised)与自
减轻时间序列预测中分布偏移模块Dish-TS(使用示例) 前言 前面我解读了论文:减轻时间序列预测中分布偏移的一般范式Dish - TS,论文解读系列,论文地址,GitHub项目地址 由于该模块可以与任何时间序列预测的深度模型结合,并且取得了比ReVIN更好的效果,这里我根据示例演示该模块的使用方法。 Dish - TS模块 import torch import torc
摘要 时间序列预测中的分布偏移(TSF)指的是序列分布随时间发生变化,这很大程度上阻碍了TSF模型的性能。现有针对时间序列中分布偏移的研究主要限于分布的量化,更重要的是忽略了回视窗口和预测窗口(horizon windows)之间的潜在偏移。为了解决上述问题,我们系统地将TSF中的分布偏移总结为两类。将回视窗口视为输入空间,将预测窗口视为输出空间,存在(1)内部空间偏移,即输入空间内的分布随时间
前言 代码来自哔哩哔哩博主deep_thoughts,视频地址,该博主对深度学习框架方面讲的非常详细,推荐大家也去看看原视频,不管是否已经非常熟练,我相信都能有很大收获。 论文An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale,下载地址。开源项目地址 本文不对开源项目中代码进行解析,仅使用p
前言 神经架构搜索(NAS):自动化设计高性能深度神经网络架构的技术 神经架构搜索任务主要有三个关键组成部分,即: 模型搜索空间,定义了一个要探索的模型的集合 一个合适的策略作为探索这个模型空间的方法 一个模型评估器,用于为搜索空间中每个模型评估性能 本文将演示如何在DARTS中提出的著名模型空间中进行搜索。 最后,我们在 CIFAR-10 数据集上得到了一个性能强大
积分
粉丝
勋章
TA还没有专栏噢
第三方账号登入
看不清?点击更换
第三方账号登入
QQ 微博 微信