六月份的思考和总结

每次开始之前,我总是要问问我自己,这周你学会了什么? 这周我主要在完成作业,搭建了Hadoop全家桶完成Hbase读写,利用Mahout做数据分析。除此之外,刷题也刷了20多道题,现在我对尾递归等细节方面有了更加深刻的理解。 我发现我现在有一个比较严重的问题,那就是“想的太多,做的太少”。脑袋里面的Idea有很多,但是懒得去编程实现,为什么懒得去实现呢? 首先:我觉得把一天的时间花费在Debug上实在是一个很奢侈的事情, 其次:我觉得如果忙活了一天效果反而不好这样太打击人了。 我知道作为一名合格的算法工程师,一定要多思考,多试验。多总结,但是我还是不能克服自己的懒惰呀… 这里一定要多多留意。 最后,不得不羡慕一个师兄呀。现在去头条实习了,着实很让我羡慕,我不知道我这一年的努力会为我的日后带来哪些回报 希望一分耕耘一分收获吧。

CoNet: Collaborative Cross Networks for Cross-Domain Recommendation(CIKM 2018)

模型复现: import torch from torch import nn import numpy as np import pandas as pd from torch import nn from torch.nn import functional as F class CoNet(nn.Module): def __init__(self, n_users, n_source_item, n_target_item, n_factors=80): super().__init__() self.user_factors = nn.Embedding(n_users + 1, n_factors, sparse=True) self.source_item_factors = nn.Embedding(n_source_item + 1, n_factors, sparse= 去看看~

Pytorch 分类loss总结

在分类问题中,Pytorch提供了多种函数,那么哪种函数是使用softmax;哪些函数不用使用softmax就可以直接套loss;又有哪些函数使用logsoftmax?这里面有一些细节需要我来研究,我找到了pytorch在github上面的这部分代码,以此文记录一下我的学习历程。 分类问题有两种思路: 第一种需要对标签进行处理 NLLLoss(_WeightedLoss) 输入 这个函数的作用适合于样本数量不均衡的情况下,其中_WeightedLoss的维度是(样本个数,类别个数),数值代表了给每个类别分配的权重。这个函数接收到输入后,会给出每个类别的对数概率(因而比较适合样本不均匀的条件)。(也就是说如果你使用NLLoss的话,你可以在forward部分直接在最后一个隐层设定为(类别维度),然后套上一个LogSoftmax层就好了。) 预测 对于predict阶段代码中也给出了方法,可以 去看看~