V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  dangluren  ›  全部回复第 3 页 / 共 4 页
回复总数  75
1  2  3  4  
2018-09-07 14:23:08 +08:00
回复了 dangluren 创建的主题 程序员 想跳槽又不敢投简历,有和我一样的吗
@M0 我想知道然后呢,O(∩_∩)O
2018-09-07 14:22:42 +08:00
回复了 dangluren 创建的主题 程序员 想跳槽又不敢投简历,有和我一样的吗
@wayne1007 是比较看运气,我是今年必须得跳了,去年 3 月到现在 2 年多,感觉工作中很不开心
2018-09-07 13:55:32 +08:00
回复了 dangluren 创建的主题 程序员 想跳槽又不敢投简历,有和我一样的吗
@shihty5 个人感觉技术还可以,在大数据这块感觉广度还不够,仅仅是 spark,hadoop,hbase,elasticsearch 等,还有好多都不知道。 个人还是希望能去大厂的,就是不够自信
2018-09-06 13:05:57 +08:00
回复了 Damuge 创建的主题 问与答 保研还是工作?
保研,不过几年时间,别给自己留遗憾
2018-09-05 13:09:57 +08:00
回复了 wanderlustLee 创建的主题 程序员 吐槽一下, CSDN 网站页面的广告也太多了吧
猜测 CEO 被割韭菜,估计快倒闭了吧,不过 SEO 做的是不错
建议安装一个 AdBlock,上面有人提到过
2018-09-05 13:08:36 +08:00
回复了 liangfengbo 创建的主题 算法 前端想学数据结构和算法
leetcode 先刷个 50 来题吧
2018-09-03 16:22:59 +08:00
回复了 xiaofans 创建的主题 问与答 老哥们,有人有寻人经验吗? 家里老人走失了
1. 报警
2. 周围监控
3.请求警方调取方圆 20 公里监控
4. 周围 100 公里发寻人启事
5. 本省内发启示

其中插一条,周围的亲戚好友多一定要挨个询问!
2018-09-03 16:20:02 +08:00
回复了 PanJiaChen 创建的主题 GitHub 石锤 github 买 star 行为
但是我一天只能给你粉一个 hiahiaa
2018-09-03 16:19:18 +08:00
回复了 PanJiaChen 创建的主题 GitHub 石锤 github 买 star 行为
我是真人粉,帮人 star 只要 1 块钱,混个饭吃。求私聊求联系
2018-08-24 13:13:05 +08:00
回复了 p01s 创建的主题 职场话题 现在国内 Google 还值得去吗?
2018-08-14 13:19:24 +08:00
回复了 Simcyber 创建的主题 问与答 有没有开源免费的内部可以搭建的聊天系统推荐的?
QuickBlox, 国外的,之前我单独做了一款聊天工具,可惜没上线就夭折了
2018-08-14 13:14:08 +08:00
回复了 peterswan 创建的主题 程序员 大家所在的公司都做 CodeReview 么?
哇,和楼主很像,目前的公司也不做,之前经历过的都做,虽然有时候有的自尊会受到打击,但感觉是非常有效的方式,由于不做,目前的项目是天天出问题。向领导反馈过,领导貌似自己都不想做
2018-08-07 14:01:03 +08:00
回复了 hansonwang99 创建的主题 程序员 一只菜鸡的半年技术博客之路
师兄,带带我
2018-07-31 18:49:56 +08:00
回复了 hztDbFXEed73dkMf 创建的主题 程序员 是自己创业做产品还是带着产品 idea 去创业公司做
前几个月前想到一个极好的点子,都将创业计划书等都写出来了。准备辞职大干一番的时候,想到自己真的什么都没有,更可悲的是,一个认识的朋友在网易也正在做,我觉得我自己不可能比得上他们一个团队,后来放弃了。后来我自己有个感想:一定要去一个大一点的平台,自己的点子需要依靠某个大平台才能发展的更好,除非你自己就能组建一个大平台
2018-07-30 17:30:41 +08:00
回复了 engineer9 创建的主题 Hadoop hadoop or spark 大数据去重(10 亿)
布隆过滤器的原理和使用参考我之前写的:
https://blog.csdn.net/t1dmzks/article/details/79212179
2018-07-30 17:28:54 +08:00
回复了 engineer9 创建的主题 Hadoop hadoop or spark 大数据去重(10 亿)
bloomfilter 其实也是可以的, 首先第一步:
不在里面: 肯定不在里面。
在里面: 可能不在里面。 这时候,我们并不是把这条数据去掉,而是将这条数据给记录下来,敢肯定的是,由于布隆过滤器的概率,这种数据肯定很少很少。
下一步:
将这 10 亿条数据再遍历一次,看看上面保存的数据到底有没有重复。

这种需求简单的很呐
1  2  3  4  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1313 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 29ms · UTC 17:52 · PVG 01:52 · LAX 09:52 · JFK 12:52
Developed with CodeLauncher
♥ Do have faith in what you're doing.