和第一遍刷Leetcode相比,二刷思路更清晰,刷题逐渐变成了一种享受,AC的感觉“神清气爽”。而对于不懂的题,第一遍是抠细节 琢磨API,而这一边完全就是在琢磨背后的思想及相关做过的题他们之间的联系,二刷还是很有必要的。
腾讯2017暑期实习生编程题
前言 最近在刷Leetcode 没搭理牛客网(逃,纪念第一次全AC,在细节上面比较棘手,这方面的基本功我还有待加强,争取做到”心里想什么,代码就能编什么,无Bug“</p> <h2>第一题</h2> <p>给定一个字符 去看看~
浅谈我所理解的动态规划
前言 以前虽然知道动态规划,但是对于它的理解仅仅停留于背“状态转移方程”的阶段,随着我的理解和深入,我对这个问题有了更多的思考。 首先我的一个感受是,如果上来就去掌握状态转移方程,无后效性等、状态压缩及倒序循环、初始化等概念是不合 去看看~
字节跳动2018校招后端方向(第二批)
前言 从今天开始每天晚上转战牛客网练习啦,这次做题体验还可以,考察了模拟、滑动窗口、动态规划。对于模拟和滑动窗口是必拿选项,对于动态规划呢,则是诸神之战,与我小渣渣无缘(不过以后也要多多刷 去看看~
Leetcode 300题我学到了什么?
从一个算法小白,以C++作为自己的入门语言,回首起来,从刚开始一道题琢磨两天到现在稳步一天4题左右,实打实的感觉自己有所提高,虽然感觉在面试的时候还是有些慌…… Python很火热,但是我实在不太喜欢用Python来编程,因为每次在看到题解的时候,有些算法实在是过 去看看~
LINE: Large-scale Information Network Embedding
Abstract 本文的创新点在于现有的网络嵌入方法无法拓展到包含数百万节点的世界中。本文提出的方法适用于任意类型信息的网络:无向、有向、加权。该方法既能够保留本地网络结构同时保存全局网络结构。提出了一种边采样方法解决梯度下降法的局限性。本文作者称该方法能够在几个小时内学习具有数百万个顶点和 去看看~
Tensorflow 相关知识点总结(防止自己长时间不看而忘记)
基本模型复现框架 import tensorflow as tfimport numpy as npclass MNIST 去看看~
华为19秋招算法笔试
我的想法也不够成熟,如有谬误,欢迎在评论指正,谢谢~! 第一题 数轴X上有两个点的序列A={A1,A2,...,Am}和B={B1,B2,...,Bn},A_i和B_i均为正整数,A、B已经从小到大排序,A、B一定不为空,给定一个距离R,列出同时满足如下条件的所有(Ai, Bj)数对: 1. A_i <= B_j 2. A_i 去看看~
基于Prolog的人参专家诊断系统
目 录 1. 系统简介 1 1.1 系统概述 1 1.2 目的与意义 1 1.3 功能需求 1 1.4 系统结构图 2 2. 功能介绍 2 2.1 底层逻辑介绍 2 2.2 数据库 3 2.3 知识库 5 2.4 模型库 7 2.5 用户管理 8 3. 开发平台及开发工具介绍 10 3.1 开发平台介绍 10 3.2 去看看~
Billion-scale Commodity Embedding for E-commerce Recommendation in Alibaba(KDD 2018)
Abstract 本文的贡献是在传统的word2vec基础上,为了减轻数据系数和冷启动问题,将辅助信息和合并到图embedding框架中。为了将辅助信息合并到图embedding中,本文提出了两种方法,离线的实验结果表明包含了辅助信息的方法要由于不包含辅助信息的方法。在淘宝的A/B测试 去看看~
面试时候需要做的准备(持续更新~)
快速排序 class Solution { public: const int N = 1e6+10; void quickS(int l, int r, vector &v) { if(l >= r) return; int mid = v[l], i = l - 1, j = r + 1; w 去看看~
Hadoop+Hbase+Zookeeper+Mahout全平台搭建教程
加载需要一些时间(大约11Mb),请耐心等待 [pdf-embedder url="https://goesbest.cn/wp-content/uploads/2019/07/hadoop.pdf"]
密码保护:Embedding跨领域推荐想法记录
无法提供摘要。这是一篇受保护的文章。
六月份的思考和总结(Leetcode 224)
每次开始之前,我总是要问问我自己,这周你学会了什么? 这周我主要在完成作业,搭建了Hadoop全家桶完成Hbase读写,利用Mahout做数据分析。除此之外,刷题也刷了20多道题,现在我对尾递归等细节方面有了更加深刻的理解。 我发现我现在有一个比较严重的问题,那就是“想 去看看~
CoNet: Collaborative Cross Networks for Cross-Domain Recommendation(CIKM 2018)
模型复现: import torch from torch import nn import numpy as np import pandas as pd from torch import nn from torch.nn import functional as F class CoNet(nn.Module): def __init__(self, n_users, n_source_item, n_target_item, n_factors=80): super().__ 去看看~
Pytorch 分类loss总结
在分类问题中,Pytorch提供了多种函数,那么哪种函数是使用softmax;哪些函数不用使用softmax就可以直接套loss;又有哪些函数使用logsoftmax?这里面有一些细节需要我来研究,我找到了pytorch在github上面的这部分代码,以此文记录一下我的学习历程。 分类问题有两种思路: 第一种需要对标签进行处理 NLL 去看看~
Interpreting User Inaction in Recommender System(Recsys 2018)
Abstract 用户与推荐系统的交互有三个方面:浏览,产生点击行为,不作为.在这项工作中,我们在推荐系统中布置了一项调查,根据人类心理上决策理论,中用户和推荐系统的角度解释用户不作为的意义.本文进一步推断用户不作为的原因,并使用离线数据集进行验证,实验表明这种模型能够为推荐系统在用户行为 去看看~
Explainable Cross-Domain Recommendations through Relational Learning(AAAI 2018)
Abstract 这篇文章是我见到的发表在AAAI上的一篇短论文,本文提出了一种可以生成关于跨领域问题的可解释推荐规则.本文的贡献是:使用关系生成规则,这些规则能够解释为什么把商品推荐给特定用户. 2. 使用用户在不同领域的商品偏好, 不同领域的商品偏好能够为用户提供全新的建 去看看~