魔术方法 Python魔术方法 在Python中,所有以双下划线__包起来的方法,统称为Magic Method(魔术方法),它是一种的特殊方法,普通方法需要调用,而魔术方法不需要调用就可以自动执行。 魔术方法在类或对象的某些事件出发后会自动执行,让类具有神奇的“魔力”。如果希望根据自己的程序定制自己特殊功能的类,那么就需要对这些方法进行重写。 魔术方法有上百种,只有很小的一部分我们才会使用, 2024-01-26 coding tricks #coding tricks
Python装饰器 Python装饰器用法: 闭包 首先要了解一个概念,闭包一句话说就是,在函数中再嵌套一个函数,并且引用外部函数的变量,这就是一个闭包了: 函数装饰器 装饰器就是一个闭包,装饰器是闭包的一种应用。python装饰器就是接受待装饰的函数的函数,用于拓展原来函数功能的一种函数(给函数加上装饰),这个函数的特殊之处在于它的返回值也是一个函数,使用python装饰器的好处就是在不用更改原函数的 2024-01-24 Python #coding tricks
F.grid_sample详解 F.grid_sample 计算细节 该采样函数的接口声明如下: 1torch.nn.functional.grid_sample(input, grid, mode=‘bilinear’, padding_mode=‘zeros’, align_corners=None) 函数内部先回将根据特征图 input 的大小将坐标规范化到 (−1,1)(-1, 1)(−1,1),规范化坐标如下图所 2024-01-20 Pytorch
Pytorch可复现性 Pytorch结果可复现性问题 在我比较不同的采样过程对评价指标的影响时,发现由于计算机的随机性对评价指标有着很大的影响,这种影响带来的不确定性在下游任务中大到根本分辨不出来哪种采样过程效果更好。这篇文章专门用于解决控制 Pytorch 中的随机性问题 随机性的产生: 非确定性操作: 有些操作在 GPU 上可能是非确定性的,即使设置了随机种子也无法完全确保结果的一致性。一些涉及CUDA加 2024-01-19 Pytorch学习 #pytorch
einops einops 和 einsum 的使用——einops einops 库操作可以替代全部的张量形状变换操作,注:类似于 Pytorch 中 torch.nn 和 torch.nn.function 的关系,如果像把 rearrange 操作放在 __init__ 中就规定,可以使用 einops.layers.torch 模块中的 Rearrange 函数 einops.rearrange 2023-12-10 Pytorch #Pytorch张量高效操作计算
einsum einops 和 einsum 的使用——einsum einsum是一个强大的执行爱因斯坦求和约定的函数,他几乎可以进行张量的所有运算,加上改变张量形状的einops库,它们可以使代码更加易读。它们的主要区别如下: 表达能力: einops 提供了更广泛的张量操作,包括但不限于求和。它可以用于重排、合并、拆分等各种操作,使得代码更具灵活性 einsum 主要用于执行张量的求和操作,虽然可以 2023-12-10 Pytorch #Pytorch张量高效操作计算
dysample Learning to sample 本文提出了一种新的极轻量级的高效采样算子(比前面所有的都更好,而且是在几乎各个任务中),主要是基于pytorch中grid_sample函数提出。FADE 和 SAPA 对高分辨率图像的需求在一定程度上限制了它们的应用领域,本文避开了动态卷积过程。dysample不需要原始高分辨率的feature map。 提出并优化dysample 设featu 2023-12-04 deep learning > computer vision > sampling operation #scientific research
SAPA SAPA: similarity-aware affiliation for feature upsampling 在低分辨率feature map中,如果对边界点进行上采样,可能出现的情况是:原本在低分辨率的一个点上采样之后所得的 σ2\sigma^2σ2 个点并不属于一个semantic cluster。本篇文章旨在将语义信息的相似性引入上采样算子,利用不同点之间的联系(affiliat 2023-12-02 deep learning > computer vision > sampling operation #scientific research
FADE FADE: fusing the assets of decoder and encoder for task-agnostic upsampling 对于不同的稠密预测任务,有些任务注重于语义信息(semantic information),它们对图像位置信息敏感(region-sensitive)而有的任务(图像分割)注重于细节(detail-sensitive)。原有的上采样算子都是用 2023-12-02 deep learning > computer vision > sampling operation #scientific research
A2U for deep matting Affinity-Aware Upsampling 相似度(affinity)在稠密预测任务中是一个非常重要的信息,二阶的特征常用于建立相似度信息,本文主要工作是将原有的动态上采样过程都总结成一阶的信息,并在此基础上提出使用二阶的信息,用此将自相似性引入采样过程,同时通过低秩双线性模型减少模型参数,降低模型计算开支 另一种将Upsampling算子统一的视角: 对于一个单通道的feat 2023-12-01 deep learning > computer vision > sampling operation #scientific research