LLLLavi's Blog


  • 首页

  • 归档

Few-Shot Learning With Graph Neural Networks

发表于 2021-04-06
前言  小样本学习并不使用小样本数据集。以5-way 1-shot为例子,为了模型能够在最终时候实现5-way 1-shot,前期依然需要用大量的数据用来训练,只不过数据不再是5-way many-shot,而是使用5-way 1-shot一组,非常多组的样本来训练。 模型 ...
阅读全文 »

Docker——让环境变得干干净净

发表于 2021-04-06
前言  我知道,在第一次使用Docker的时候,也就是刚刚得到实验室服务器密钥的时候使用Docker的方式是邪道的。那时候完全是把它当作一个隔离的虚拟机来用。后来才知道官方并不提倡这种做法,于是乎改邪归正写下这篇文章,本文中使用的例子为本博客的Docker化操作。 流程Docke ...
阅读全文 »

Graph Convolutional Networks

发表于 2020-11-16
  不知不觉已经第二年了,在过去的一年里我曾沉迷机器学习,沉迷集成学习,沉迷单细胞拷贝数变异检测。现在回想起来真的是苦不堪言,上手就给自己准备了个地狱难度开局,结果什么都没做出来。好在这学期一开学及时更换了方向,从DNA转去RNA,从机器学习变成深度学习,并且还有大佬指点, ...
阅读全文 »

一核有难,八核围观

发表于 2020-03-31
前言  自从有了实验室的服务器,就很少在自己的笔记本上跑代码了,一个原因是有许多工具在windows上并没有支持;另一个是自己的笔记本的算力非常差,跑个深度学习的代码非常耗时;而最后一个原因则是有一台24小时开机的服务器不用白不用哈哈哈。  因为在基因变异检测 ...
阅读全文 »

Siamese networks and Triplet Loss

发表于 2020-01-09
问题背景  相区别于传统的分类器,Siamese networks采取的分类策略为比较模型的两个输入是否相似,如果相似,那么就可以判断两个输入属于同一个类;如果不相似,则属于不同类别。  与传统分类器更大的区别在于,前者需要每个类都拥有非常大的样本量供模 ...
阅读全文 »

更多的特征

发表于 2019-12-23
前言  这一切的起因都需要从第一次参加Kaggle比赛说起,在接触泰塔尼克号的数据集之前,我以为全世界做机器学习或深度学习的数据集都会像Mnist一样标准整齐的,再者不济也会像做本科毕设时候那样的,随便掏出来就是几万条上下的水文数据。   真实世界中的数据往往 ...
阅读全文 »

Emoji Maker

发表于 2019-11-28
  上手总是用MNIST是不是没有成就感,那么来试试训练Emoji吧!这是学习GAN网络的第一个玩具应用。 准备工作  训练GAN网络生成表情包当然需要大量的表情包数据,当然就想到了万能的知乎了,而且以前也做过知乎的爬虫批量下载图片,这不是随手拿来改改就能 ...
阅读全文 »

懒惰是第一生产力

发表于 2019-11-14
前言 俗话说懒惰是第一生产力,只有当人懒到一定境界的时候,才会突然生产力爆棚,做出一些奇奇怪怪有意思的东西来继续偷懒,说的就是我这样的人。 报告监控  学校有项规定,每个学期必须参加一次学术报告,同时参加这类活动也记作评选奖学金的加分项之一。一牵扯到奖学金,那可不得了了 ...
阅读全文 »

Hello World

发表于 2019-11-09
Lavi 从今天起开始营业。
阅读全文 »
Lavi

Lavi

Just Something Fun

9 日志
8 标签
© 2021 Lavi