Pyside6 Graphview鼠标框选

上一篇博客给了一个QImageView类,其中实现了图片浏览器的基础鼠标操作,在此基础之上,进一步实现鼠标框选的操作。具体实现时,我们先构建一个场景类QImageScene,用于管理场景中的Item,场景中的Item主要有两类,一类是图像,另一类是选择框。对于选择框的操作,我们把鼠标事件定义在QImage Scene类中。

阅读更多

精细光流估计

这篇博客是论文:High Accuracy Optical Flow Estimation Based Theory for Warp 的笔记,论文为2004年,在2015年EpicFlow方法中引用。

在稠密光流估计中,最后一步往往是将光流图进行Refine和smooth,来确保光流在空间上连续,大部分区域符合刚体运动假设,同时也会处理遮挡,为遮挡区域提供连续的光流值。

在介绍的论文中,建立了一个能量函数,将光流图的优化和优化能量函数联系起来。论文偏向传统,但是也很经典,接下来一起看下做法。

阅读更多

Biratral Grid与HDRNET论文笔记

这篇博客介绍 Google 近年来在Photography方面一篇具有代表性的论文,Deep Bilateral Learning for Real-Time Image Enhancement

HDRNET的主要特征数数据分成两路,低分辨率偏向high level语义,这一路学习到的是一系列参数(分mesh的3×4 color matrix),学习参数需要的计算资源相对于学习输出图需要的资源更少,移动端部署更加方便。高分辨率一路更偏向low-level引导,学些引导图和参数apply。

阅读更多

Huggingface简单调用bert模型

Hugging face起初是一家总部位于纽约的聊天机器人初创服务商,聊天机器人服务没搞起来,但是hugging face在github上开源的transformers库大火,已经成为机器学习届最活跃的开源社区。这篇博客简单介绍下怎样从hugggingface获取数据和使用模型。

hugging face的官方网站:http://www.huggingface.co./ 。 我们基本可以从这里捞到很多数据集、预训练模型、课程 和 文档。

阅读更多

Stable Diffusion 本地部署指南

部署stable diffusion ai绘图,需要 nvidia 显卡,至少需要6G显存(显存越大越好,高清图片需要更大显存)。这篇博客适用于一些有代码基础的同学(也就是不会手把手告诉怎么搭建python环境、clone代码),完全没接触过代码的同学可以找其它教程。

Stable Diffusion 官网地址: https://stability.ai/blog/stable-diffusion-public-release

Stable Diffusion 代码仓库: https://github.com/CompVis/stable-diffusion

模型下载(该链接建议从头阅读):https://stable-diffusion-art.com/models/#Stable_diffusion_v15

https://huggingface.co/CompVis/stable-diffusion

训练和使用Lora:https://zhuanlan.zhihu.com/p/624230991

webui:https://github.com/AUTOMATIC1111/stable-diffusion-webui

阅读更多

部署ZeroTier内网穿透

ZeroTier内网穿透相比frp的好处就是,连接建立之后,不再需要中继服务器做数据中转,连接是点对点的,速度更快。相比于frp,不方便之处在于,本地和服务器必须要安装zerotier客户端(有点儿类似于VPN,我们可以借助frps+zerotier方式开放公网p2p访问)。

部署ZeroTier之前,我们需要了解一些概念,然后再进行部署,也会介绍一些高阶功能,私有化部署(自建Moon服务器、管理Plant服务器)等。

阅读更多

群晖Docker部署IPV6 DDNS解析

Docker IPV6 DDNS有两个关键点,一是确保自己的ipv6地址是公网ipv6,这个最好直接找运营商确认,二是确保docker能拿到宿主机的ipv6地址,所以一定选host网络,并不需要去改docker 的json来enable docker的ipv6,ipv6地址是通过外部api拿到的,二是解析参数(域名、key)需要设置正确。直接看图好了,关键的地方已经标红:

阅读更多