V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  1462326016  ›  全部回复第 8 页 / 共 9 页
回复总数  180
1  2  3  4  5  6  7  8  9  
2019-10-08 16:27:40 +08:00
回复了 JCZ2MkKb5S8ZX9pq 创建的主题 Python e×ceI 密*#*码 @%@忘*^*了怎么办?
@JCZ2MkKb5S8ZX9pq 看了下 xlsx 的加密信息,应该可以确定了用的是 AES 加密,256 位,CBC 模式加密的。<keyData saltSize="16" blockSize="16" keyBits="256" hashSize="64" cipherAlgorithm="AES" cipherChaining="ChainingModeCBC" hashAlgorithm="SHA512" saltValue="YPvGtuMCzePO3joQ2P0CoQ=="/>跑字典吧
2019-10-08 16:14:17 +08:00
回复了 JCZ2MkKb5S8ZX9pq 创建的主题 Python e×ceI 密*#*码 @%@忘*^*了怎么办?
@JCZ2MkKb5S8ZX9pq 如果是 xlsx 的打开密码,抱歉,由于 excel 可能用了类似于 aes 之类的加密方式,所以目前的解决方法只有跑字典,密码比较长的话解密的可能性不大。或者如果不介意的话可以把文件发出来大家帮你看看
2019-10-08 16:07:17 +08:00
回复了 JCZ2MkKb5S8ZX9pq 创建的主题 Python e×ceI 密*#*码 @%@忘*^*了怎么办?
不好意思没审题,我想表达的意思是如果是单元格锁定或者加密了 VBA 脚本了,那么 xlsx 格式很好解除,因为配置文件都是可以解压的明文的,如果是打开密码的话无能为力,解压后看样子好像直接加密了整个文件,暂不知道原理,坐等大神。xls 格式没研究过,好久没用过了
2019-10-08 15:53:21 +08:00
回复了 JCZ2MkKb5S8ZX9pq 创建的主题 Python e×ceI 密*#*码 @%@忘*^*了怎么办?
如果是 xlsx 就很简单了
2019-10-06 19:32:47 +08:00
回复了 snoopygao 创建的主题 Python 像 xx-net 这样的是怎么把执行环境打包进去的
pyinstaller 打包不进去是因为有的包依赖 pyinstaller 没有分析到,可以在执行报错日志中找到哪个包没有打包进去,然后--hidden-import 告诉 pyinstaller 让它导入就可以了
2019-10-06 19:30:28 +08:00
回复了 silenceeeee 创建的主题 Python Python 初学,求教一个关于 MySQLdb 转义字符的问题
据我所知,format 会自动将二进制转换为字符串,而 f 的方式不会这样做,所以打印出来会带有 b'abc'前缀。可以试试将 escape_string 后的字符串 type 下看看是什么类型的,然后 decode 下就好了
2019-08-28 11:33:37 +08:00
回复了 v1cT0r 创建的主题 Python 多线程 queue 问题,求助大神
@v1cT0r 但是我测试无法复现,win10 和 linux ( Ubuntu18.0.4 )均正常
2019-08-28 10:04:43 +08:00
回复了 v1cT0r 创建的主题 Python 多线程 queue 问题,求助大神
别的不说,我想问下你开这么多线程干嘛?这都快两千了
一楼的意思应该是 BytesIO ?
@wuwukai007 可以尝试在生产者中加一个 else,在队里满 10000 时 sleep 一下,应该就正常了。否则会不停地获取队列大小,占用锁导致 get 很慢。
@gravitykey 可能是因为生产者不停持有锁造成的问题,详见附言,感谢回复。
@lllllliu 哈哈,谢谢,顺便给大家留一个参考
@rogwan 应该是 windows 和 linux 的多进程实现方式不同造成的,由于我忘了加 sleep,导致不停地在获取队列大小,造成一直持有锁,所以会很慢。linux 可能进程是 fork 出来的,所以加锁方式不同或者其他原因?个人看法,未求证!
@skinny 已经找到原因了,详见附言,感谢帮助。
@BingoXuan 生产者只需保证队列中的数据达到 10000 条就不会再生产了,这时候只剩下消费者不停地 get 数据
@skinny put 元素的速度是很快的,你可以看 size 线程的输出值,几秒钟就可以生成 10000 条数据,并且在数据不足 10000 的时候再次生成数据 put 进去。所以说无论是否 time.sleep(2),都可以保证 get 的时候队列中数据是大于 10000 的
@BingoXuan 所以说我觉得可能是 windows 平台实现方式不一样导致的?但是我记得我之前也这么用过,是没有问题的。。。。
@lllllliu 只记录了 queue 的 get 方法的耗时,所以应该就是在 get 的时候比较耗时,但是单条数据会很快,数据多了就很慢,很难 debug。。。
2019-08-14 14:17:19 +08:00
回复了 1462326016 创建的主题 Python 关于 asyncio 创建多个 tcp 连接,线程数不准确的问题
@gaokevin163 恩恩,这个我是了解的,可以通过自己新开线程然后在新的线程中新建事件循环达到多个线程处理 io 的目的。发帖子的目的主要就是弄清楚其他线程是干什么用的。
2019-08-14 09:39:24 +08:00
回复了 1462326016 创建的主题 Python 关于 asyncio 创建多个 tcp 连接,线程数不准确的问题
@cs010 非常感谢, 回答正确, 我试了下的确就是我想要的结果,感谢感谢!我去翻翻源码看看怎么实现的。
1  2  3  4  5  6  7  8  9  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5308 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 18ms · UTC 05:43 · PVG 13:43 · LAX 21:43 · JFK 00:43
Developed with CodeLauncher
♥ Do have faith in what you're doing.