V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  t3zb2xzvjm4yvmn  ›  全部回复第 1 页 / 共 1 页
回复总数  8
10 分钟前
回复了 JasonLeee 创建的主题 投资 听教授建议炒币赚了 10W+,现在该离场了吗?
让我想起多年来向同事推荐 BTC 的经历,无一成功,也许是我本人理解浅薄,传道效果不好,也或许是人性自有的傲慢与偏见,随着年龄增长只会愈发不愿接受新事物
这还都是程序员的圈子,我认为已经是最能理解 BTC 的人群,白皮书和源码都是公开的,网上也有许多讲解视频,搞明白 BTC 的原理并不困难,至少不会比刷题、背八股更困难
然而事实就是,没有一个人持有包容的心态去了解,自然也没有一个人愿意买入

OP 身在国外,能够遇到好的导师,并且在学生阶段接触 BTC 和区块链的内容,这是十分幸运且难得的,大部分人并没有你这样的机遇

我看完了所有回复,更加验证了一点,人类的成见随着年龄的增长只会不断加深,对新事物的接受度只会越来越低

我只能多反省自身,不要落入到这样的局限性而不自知
12 天前
回复了 t3zb2xzvjm4yvmn 创建的主题 音乐 [推荐] 河南说唱之神-工厂
@darksheep9527 听了,确实有趣
这首是 21 年创作的吗,如今几年过去了,考公热越演越烈,实在是有趣啊
293 天前
回复了 villa2935 创建的主题 Python Python 新手之二
dict([(i, j) for i in keys for j in values])
等同于
dict(zip(keys, values))
@kerie QnVubnk1NDE=
@kerie Flink SQL 好像没有现成的方法,可以自定义 source table ,你研究一下吧
或者不在 Flink 里做,在外部写一个 Java/Python 程序用 JDBC 和 kafka API ,定时把数据推到 kafka ,用 Flink SQL 接 kafka 就比较方便了。
实现过类似的需求,首先 lookup join 肯定是不行了,事实流中没有出现的用户肯定关联不到的。

比较彻底的解决方案是使用 datastream API ,process function 。还要状态编程,因为需要将维表的状态自己维护,比如把状态放到一个 tuple2 里,t0 是 customer id ,t1 给默认值 0 ,然后拿另外一个流的 element ,每来一条就给 t1+1 ,窗口触发时把所有的 tuple2 向下游发送。

需要额外考虑的一点是,有可能某个时间窗口内 1 个下单的都没有(比如半夜),那么该窗口无法触发,没有任何输出,所以默认的滚动窗口\事件时间语义就不太行。还需要再实现一个窗口,事件时间、处理时间混合语义,保证即使没有事件仍然可以触发,输出所有用户下单数均为 0 的情况。

Flink SQL 没有实现过,但是有一个简单粗暴的想法,定时把维表的数据全量发到 flink ,构造出所有包含用户的事实流,这样你只需要改造 customers 维表那里就够了。
缺点是需要不断地读维表,对 MySQL 增加压力; source 端不断地向下游发维度信息,实际上不符合事件驱动和流式计算的原则。

我猜测这个需求数据量不大,实时性要求也没那么高,使用 spark streaming 可能是更好的选择。
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5442 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 18ms · UTC 06:06 · PVG 14:06 · LAX 23:06 · JFK 02:06
Developed with CodeLauncher
♥ Do have faith in what you're doing.