python 新手,现在有个需求,大概几百万条数据需要翻译,映射关系存在一个 5GB 左右大小的 txt 文件里,也就是拿几百万个值去几亿条数据里去匹配,怎么做比较好
1
jarence 2022-07-22 20:19:08 +08:00
介绍的太笼统了,匹配是怎么匹配的?
|
2
HankLu 2022-07-22 20:19:38 +08:00
社工库?
|
3
Richard14 2022-07-22 20:20:28 +08:00
5GB 不大,全部载入内存也能抗
如果是 500G 的话就要建立索引了,可以考虑使用数据库。不过无论如何如果要大量随机读写的话效率不会很美丽就是了 |
4
rushpu 2022-07-22 21:22:18 +08:00
可以用 dask.bag.read_text
https://examples.dask.org/bag.html |
5
VincentYoung 2022-07-22 21:36:54 +08:00 via iPhone
之前搞过这个。你不要 readlines 会卡死,readline 就行。建议切成 5 个 1G 的文件,这样效率更高。
|
6
VincentYoung 2022-07-22 21:37:54 +08:00 via iPhone
用的数据库是 clickhouse ,查询速度还是挺快。
|
7
ranxi OP @jarence 两个文件 O1 和 O2 ,可以理解成两张表,每行\t 分隔,O1 每行是 a ,b ,c ,其中 c 需要映射成另一个值 d ,这个映射关系在 O2 文件里( c ,d ),O2 文件大概有 5GB ,几亿行数据。
|
9
ranxi OP 暂不考虑数据库
|
10
Juszoe 2022-07-22 21:52:02 +08:00
对 O2 建哈希表完事了,5 个 G 绰绰有余
|
11
liuhan907 2022-07-22 22:30:59 +08:00
这么朴素的任务弄个 hash 表不就完了。啥你说内存不够,不够就加。内存多便宜.
|
13
ytmsdy 2022-07-22 22:47:06 +08:00
清洗出来,自己先按照数据的逻辑做一个大的基本划分,然后丢到 pandas !
|
14
SenLief 2022-07-22 22:47:46 +08:00
多加几根内存条就可以吧? 5g 不是很大
|
15
liprais 2022-07-22 22:52:32 +08:00 via iPhone
整到 sqlite 里
一个 join 完事 有你问的时间都跑完了 |
17
ranxi OP O1 按需求是要逐行读取的,所以只能对 O2 操作。我明天试试 hash 表吧
|
18
wxf666 2022-07-22 23:49:08 +08:00 1
@ranxi 按理说你都能用 python 了,sqlite 是内置的标准库,应该是用得了的
# 根据 O2 构造 hash 表(字典) with open(r'O2.txt', encoding='utf-8') as fp: table = dict((row.split('\t') for row in fp)) # O1 逐行替换并输出 with open(r'O1.txt', encoding='utf-8') as in_fp, open(r'out.txt', 'w', encoding='utf-8') as out_fp: for row in in_fp: cols = row.split('\t') cols[2] = table[cols[2].rstrip('\n')] out_fp.write('\t'.join(cols)) 内存若不够,考虑构造 hash 表时,仅将 hash(str) 作为键名,然后 cols[2] = table[hash(cols[2].rstrip('\n'))] ? |
19
Trim21 2022-07-23 04:03:25 +08:00 via Android
说不定 python 编译的时候没带 SQLite 🐶
|
20
renmu123 2022-07-23 08:41:33 +08:00 via Android
扔哈希或者 Redis 里再查
|
21
wxf666 2022-07-23 09:42:48 +08:00 2
@ranxi 可以试试用 sqlite ,几行搞定 导入+翻译+输出,感觉速度应该也不慢
1. 生成 O2.txt (从小写字母,映射至大写字母,共 26 行) printf "%s\n" {a..z} | sed 's/^.*$/&\t\U&/' | tee O2.txt 『输出』 a A b B … … z Z 2. 生成 O1.txt (也是 26 行,字段内容是:主键 ID 、预期转换成啥样、待转换内容) printf "%s\n" {a..z} | awk -v OFS=$'\t' '{print NR, toupper($0), $0}' | tee O1.txt 『输出』 1 A a 2 B b … … … 26 Z z 3. 导入映射表至数据库 sqlite3 -tabs O2.db 'CREATE TABLE O2 (key PRIMARY KEY, value) WITHOUT ROWID' '.import O2.txt O2' 4. 逐行查数据库进行翻译 4.1 为 SQLite 启用 csv 扩展 ①下载 csv.c: https://www.sqlite.org/src/file?name=ext/misc/csv.c&ci=tip ②编译扩展:参考 https://sqlite.org/loadext.html 4.2 翻译 SQLITE_CSV_LIB_PATH='./csv' # 编译好的 CSV 模块库路径(可省略后缀) SQLITE_CACHE_SIZE_MB=512 # 数据库最大缓存页面大小(单位:MB ) # sed -E 's/"/""/g; s/^|$/"/g; s/\t/","/g' O1.txt | tr '\t' ',' < O1.txt | # 制表符 转成 逗号(要求 O1.txt 每列内容,都不包含『"』『,』,否则用上面那行) sqlite3 -tabs O2.db \ ".load $SQLITE_CSV_LIB_PATH" \ "PRAGMA cache_size = -$((SQLITE_CACHE_SIZE_MB << 10))" \ 'CREATE VIRTUAL TABLE TEMP.O1 USING csv(filename="/dev/stdin", columns=3)' \ 'SELECT O1.c0 id, O1.c1 expect, O2.value replaced FROM O1 LEFT JOIN O2 ON O1.c2 = O2.key' 『输出』 id expect replaced 1 A A 2 B B … … … 26 Z Z |
22
FYFX 2022-07-23 10:15:51 +08:00
以前我还会考虑怎么做,现在碰到大点的数据,现在就两张表都塞 hadoop 然后 spark 跑个 join 就好
|
23
winglight2016 2022-07-23 10:40:23 +08:00
前面有人提过 dask 、dtable 这些照理够用了,还想通用一点,上 spark 、flink 这种大数据平台
|
24
krixaar 2022-07-23 10:42:32 +08:00
5GB 左右几亿条,数据条目本身不大而且规整的话,按某种方式(比如先 hash 一下 key )切一下建文件夹和文件,比如 abcdef 对应 123456 就建 ab/cd/ef 路径,文件名 123456 ,建好之后直接 path 判断下有没有,有就把路径里唯一的文件名写进去。
|
25
wxf666 2022-07-23 16:41:27 +08:00
@krixaar 这个开销有点大噢
比如 Linux ext4 ,每个文件所需的一个 inode 要 256 字节(存各种属主、权限、时间信息,还有数据分布在哪儿等), 且不说应该不会预留几亿个 inode 可用,光是建一亿个文件就要 23.8 GB 的 inode ,还没算目录…… 以及长文件名、特殊符号等其他问题 那还不如用数据库呢,MySQL 的 innodb 下,一行数据仅额外需要至少 18 字节(存事务、回滚信息等),SQLite 更少 若这个表的 B+树 3~4 层高,前两层容易缓存至内存,那么翻译一行数据一般只需额外读取 1~2 次硬盘,绝对比文件系统开销小 |
26
krixaar 2022-07-23 17:01:54 +08:00
@wxf666 #25 说了不考虑数据库啊🤣
另外这个提法是为了黑 Windows 版 QQ 的群图片缓存( Image\Group2 ),腾讯是把文件名开头的四个字符比如 abcdef.jpg 建成 ab/cd 路径然后把 abcdef.jpg 文件塞里面。 |
27
wxf666 2022-07-23 17:50:45 +08:00
@krixaar 不知为何不考虑数据库,权限不足?不熟悉?
连 1MB 、无需额外进程 的 SQLite 也要排除。。 那上面提到的大数据平台就更离谱了 眼拙,丝毫没看出原来是在讽刺 其他做得好的类似软件,是如何存储这些小文件的?数据库? SQLite 确实提到过,数据库中存储小文件,可比文件系统快 35%,减少 20% 磁盘占用 https://sqlite.org/fasterthanfs.html |
28
documentzhangx66 2022-07-23 20:04:55 +08:00 1
这种场景,你说你不用数据库,我猜测,你应该是 C++ 内嵌汇编的大佬,自己能写出比数据库引擎更好的分析、算法、索引,结果,你起手式却是 Python ?????
你用 Python 处理数据,不用数据库,反向做方案,是贵司钱多?还是工作量不饱和,要给自己加任务? 其次,你这最大的数据量,几亿条,才 5GB ,另一个几百万条的文件,估计才几十 MB 吧?不说内存,一些大缓存的洋垃圾 CPU ,说不定都能把你这几百万条文件给一口吃掉。 不用数据库,这道题就是如何使用 C++,选取极致的字符串匹配算法,实现数据切分到每个核 与 内存,使其处理带宽最大化。 用数据库,这道题就是怎么安装、配置数据库,进行性能调优。 这两道题的难度完全不是一个等级的,不是大佬当然选择数据库,最好是地球上最强数据库 Oracle 。 至于 Python ?如果你的目标是,追求极致的处理性能,那么 Python 在这个问题上,就是个笑话。有些数据库引擎内部能优化到把数据量按 node 与 内存条的对应关系给负载均衡 + 并行起来,Python 却还在研究代码是不是写错了,怎么按行读取这种事情上,画风都不一样。 当然了,如果只是想叼根烟,翘着二郎腿,在空调房里,摸摸鱼,顺便在上百万的全闪存储 + 王思聪级的服务器上,用 Python 跑个数据玩玩,那当我没说。 |
29
edk24 2022-07-24 01:22:17 +08:00
fopen, 控制游标, 一次读入 n 行, 以此类推 只到遇到文件结尾符
大文件处理大多是这种套路, windows 的很多设计也是, 因为不可能几个 gb 的文件全部读到内存里面处理. |
30
mikewang 2022-07-24 02:44:35 +08:00
```
import mmap ``` ? |
31
zlstone 2022-07-24 08:48:58 +08:00
估计是个面试题,不让用数据库,只能用 Python 解决
|
32
ranxi OP 抱歉各位,昨天有事没看回复,我再说明一下。
首先我之前是写 java 的,临时过来写 python ,所以很多用法不了解。 然后 O1 文件其实不是一个规则的 txt ,而是需要解析的 xml 文件,我是用 sax 逐行读取的。这点之前没有详细说明 O2 文件跟之前描述一样,是个表形式的 txt 文件,通过第一列映射第二、三列 |
33
wxf666 2022-07-24 19:07:06 +08:00
@ranxi 描述改个不停。。不如放几行数据出来
我还是觉得 sqlite 足够你用,几行的事 下载个 sqlite3.exe ( 1~2MB )就能用,也不用管理员权限,内存占用也随你设,1MB ,1GB ,都行 xml 也很好解决,xmlstarlet |