Sakura樱花家的VPS一直是国内服务器圈中“白富美”的存在,其IIJ线路一度成为联通直连热门之选。然而因为国内注册门槛比较高且日本VPS监管严格等因素的限制,用的人不是特别多。除了服务器,它家的CDN也是一个比较牛逼 去看看~
在Openwrt中添加Google域名的ddns
由于土区Google domains的价格过于便宜,因而在Google domains买了一个新的域名用来做ddns用。因而需要在Openwrt上面设置好相关选项。我之前使用的是cloudflare, 而且在网上相关的材料也比较多,设置还算方便,但是 去看看~
二刷Leetcode题目思路总结
和第一遍刷Leetcode相比,二刷思路更清晰,刷题逐渐变成了一种享受,AC的感觉“神清气爽”。而对于不懂的题,第一遍是抠细节 琢磨API,而这一边完全就是在琢磨背后的思想及相关做过的题他们之间的联系,二刷还是很有必 去看看~
腾讯2017暑期实习生编程题
前言 最近在刷Leetcode 没搭理牛客网(逃,纪念第一次全AC,在细节上面比较棘手,这方面的基本功我还有待加强,争取做到”心里想什么,代码就能编什么,无Bug“</p> <h2>第一题</h2> <p>给定 去看看~
浅谈我所理解的动态规划
前言 以前虽然知道动态规划,但是对于它的理解仅仅停留于背“状态转移方程”的阶段,随着我的理解和深入,我对这个问题有了更多的思考。 首先我的一个感受是,如果上来就去掌握状态转移方程,无后效性等、状态压缩及倒 去看看~
字节跳动2018校招后端方向(第二批)
前言 从今天开始每天晚上转战牛客网练习啦,这次做题体验还可以,考察了模拟、滑动窗口、动态规划。对于模拟和滑动窗口是必拿选项,对于动态规划呢,则是诸神之战,与我小渣渣无缘(不过以后也要多多刷才行)。而对 去看看~
Leetcode 300题我学到了什么?
从一个算法小白,以C++作为自己的入门语言,回首起来,从刚开始一道题琢磨两天到现在稳步一天4题左右,实打实的感觉自己有所提高,虽然感觉在面试的时候还是有些慌…… Python很火热,但是我实在不太喜欢用Python来编 去看看~
LINE: Large-scale Information Network Embedding
Abstract 本文的创新点在于现有的网络嵌入方法无法拓展到包含数百万节点的世界中。本文提出的方法适用于任意类型信息的网络:无向、有向、加权。该方法既能够保留本地网络结构同时保存全局网络结构。提出了一种边采 去看看~
华为19秋招算法笔试
我的想法也不够成熟,如有谬误,欢迎在评论指正,谢谢~! 第一题 数轴X上有两个点的序列A={A1,A2,...,Am}和B={B1,B2,...,Bn},A_i和B_i均为正整数,A、B已经从小到大排序,A、B一定不为空,给定一个距离R,列出同时满 去看看~
基于Prolog的人参专家诊断系统
目 录 1. 系统简介 1 1.1 系统概述 1 1.2 目的与意义 1 1.3 功能需求 1 1.4 系统结构图 2 2. 功能介绍 2 2.1 底层逻辑介绍 2 2.2 数据库 3 2.3 知识库 5 2.4 模型库 7 2.5 用户管理 8 3. 开发平台及开发工具介绍 10 去看看~
Billion-scale Commodity Embedding for E-commerce Recommendation in Alibaba(KDD 2018)
Abstract 本文的贡献是在传统的word2vec基础上,为了减轻数据系数和冷启动问题,将辅助信息和合并到图embedding框架中。为了将辅助信息合并到图embedding中,本文提出了两种方法,离线的实验结果表明包含了辅助信息 去看看~
面试时候需要做的准备(持续更新~)
快速排序 class Solution { public: const int N = 1e6+10; void quickS(int l, int r, vector &v) { if(l >= r) return; int mid = v[l], i = l - 1, j = r + 1; while(i < j) { do i++; while(v[i] < mid); do j-- 去看看~
Hadoop+Hbase+Zookeeper+Mahout全平台搭建教程
加载需要一些时间(大约11Mb),请耐心等待 [pdf-embedder url="https://goesbest.cn/wp-content/uploads/2019/07/hadoop.pdf"] 去看看~
密码保护:Embedding跨领域推荐想法记录
无法提供摘要。这是一篇受保护的文章。
六月份的思考和总结(Leetcode 224)
每次开始之前,我总是要问问我自己,这周你学会了什么? 这周我主要在完成作业,搭建了Hadoop全家桶完成Hbase读写,利用Mahout做数据分析。除此之外,刷题也刷了20多道题,现在我对尾递归等细节方面有了更加深刻的理 去看看~
CoNet: Collaborative Cross Networks for Cross-Domain Recommendation(CIKM 2018)
模型复现: import torch from torch import nn import numpy as np import pandas as pd from torch import nn from torch.nn import functional as F class CoNet(nn.Module): def __init__(self, n_users, n_sour 去看看~
Pytorch 分类loss总结
在分类问题中,Pytorch提供了多种函数,那么哪种函数是使用softmax;哪些函数不用使用softmax就可以直接套loss;又有哪些函数使用logsoftmax?这里面有一些细节需要我来研究,我找到了pytorch在github上面的这部分代 去看看~
Interpreting User Inaction in Recommender System(Recsys 2018)
Abstract 用户与推荐系统的交互有三个方面:浏览,产生点击行为,不作为.在这项工作中,我们在推荐系统中布置了一项调查,根据人类心理上决策理论,中用户和推荐系统的角度解释用户不作为的意义.本文进一步推断用户不作为 去看看~