不是专业的法律人就是随机产生的点子,接受批评指正
前提思考:网上看到太多因为法官主观断案导致的冤假错案突然想到了 AI 的理性分析。
未来有没有可能训练法律相关知识库然后代理人律师检察院提交各自材料由 AI 分析,但由于过于理性,为补足人情冷暖可采取一定占比的网民参与对结果有一定的影响(不会过多)。这样的案件宣判流程也大概率省去了各种上诉以及浪费的各种时间。也一定程度上避免冤假错案,更公开透明。
![]() |
1
K8dcnPEZ6V8b8Z6 1 天前 via iPhone ![]() 然后 ai 从微博获取了大量语料,男的全部死刑了
|
![]() |
2
Citrus 1 天前 via iPhone
网民参与???你认真的?
|
![]() |
3
shortawn 1 天前 ![]() AI 不能坐牢,无法取代如法官、律师、财务等职业。
|
![]() |
4
processzzp 1 天前
|
![]() |
5
FlorentinoAriza OP @K8dcnPEZ6V8b8Z6 #1 获取什么语料啊,肯定从各种法律条文规范来学习,根据微博语料那还是法律了吗?
@Citrus #2 网民参与不负责主要结果比如 20%决定由网民参与,这样避免机器过于理性 @shortawn #3 法官坐牢的本质原因是什么?是主观判断有所偏颇或者有包庇,ai 没有这些问题自然不需要坐牢。出现问题大概率是法律制定和解释有问题 |
![]() |
6
lithiumii 1 天前 via Android ![]() 你有没有考虑过有些判决是非法律的因素在影响,判决有可能不公正是设计的一部分,是 feature 不是 bug
|
![]() |
7
FlorentinoAriza OP ![]() @processzzp 真的服你们脑回路,有正经的官方数据(刑法宪法民法婚姻法)不用,天天想着微博那些玩意????
|
![]() |
8
FlorentinoAriza OP @lithiumii #6 这个确实,这个点子是建立在乌托邦的设计之上。本人更偏向无政府主义,觉得人应该靠自觉和共同约定社会才会更好,一旦有特权阶级社会终究是负面循环
|
![]() |
9
irisdev 1 天前 via Android ![]() 很难,现在就想用 AI 代替法官了,老爷们怎么想
|
![]() |
10
gaobh 1 天前 via iPhone ![]() 透过现象看本质,为啥不公开透明?
|
![]() |
11
FlorentinoAriza OP |
12
hefish 1 天前
可行的,非常可行,将来人类只要接根管子躺着就行。
|
![]() |
13
jellyX 1 天前
替代不了法官, 可以替代律师. 毕竟 AI 考律师证轻轻松松
|
![]() |
14
FlorentinoAriza OP @jellyX #13 律师不太可能了,律师要看卷宗,要了解潜规则也要找证据等等,这些 ai 做不到的
|
15
maojun 1 天前 via iPhone
交给学法的人吧
|
![]() |
16
520discuz 1 天前
首先 AI 是根据真人给的规则判的吧,如果未来都给 AI 判的话,那真人在给 AI 规则的时候肯定给最利于自己的规则啊,这样从一开始就不公平,那 AI 判的还会公平吗
|
![]() |
17
cmdOptionKana 1 天前
AI 当法官,理论上还真没问题。但实际操作会有严重问题:由谁负责训练这个 AI 呢?
|
![]() |
18
vmebeh 1 天前 via iPhone ![]() AI 为了断案,现场随机编了一些法律条文
|
19
shenyiyouge 1 天前
@K8dcnPEZ6V8b8Z6 ai 的回复并不是完全由喂养的语料生成的,大部分是根据逻辑加以判断,但是逻辑这种事情,很难所有人都统一。
|
![]() |
20
FlorentinoAriza OP @520discuz #16 利于自己的规则难道他就不怕自己被规则反噬吗,毕竟 ai 可不会去分辨谁是谁。就比如一个人留了漏洞害人,难道别人就不会利用这个漏洞害他吗?并且法律本身就是不断完善修缮的过程
|
![]() |
21
FlorentinoAriza OP @vmebeh #18 别说,这个还真有可能
![]() |
![]() |
22
jacketma 1 天前 ![]() 第一步:AI 初审,双方无异议即判决; AI 审理主打“快&便宜”。
第二步:不服判决,根据异议部分申请人工审理,再增加费用、审核时间。 |
![]() |
23
june4 1 天前
目前的 ai 技术底层哪有一丝逻辑,且幻觉也难解决,很容易通过给的材料里加对抗 hack 让 ai 误判
|
24
busier 1 天前 via Android
没意义 机器终究是人操控
就更摇彩票一样 |
![]() |
26
shortawn 1 天前 ![]() @FlorentinoAriza 你第一句话说得对,你确实对法律专业了解的太少。
法官判断有所“偏颇”并不是什么大问题。很多案子,尤其是案值不高的民事纠纷,都是公说公有理婆说婆有理,法官是拥有自由裁量权的,这是法律赋予的权利。那些一眼就能用法律条文去匹配案件,不管是谁来判,结果都一样。真正值得讨论的只有那些难分伯仲的、需要法官形式自由裁量权的案件。 并没有谁真正考虑让法官去坐牢,只是法官自己知道自己肩负着一份责任,他即便不为涉案人考虑,也要为自己的仕途考虑,减少自己的“污点”。AI 只能根据输入的信息去推测和判断,没办法承担任何责任。 |
![]() |
27
yufeng0681 1 天前
@jacketma #22 不要被题主限定了思维。
灰度审判的本质是法律条文太粗,没有细粒度支撑,相同案例太少,需要法官主观判断。 1 、如果是冤假错案,拿着两边律师提供的材料,用 AI 去推导,证据链的问题 2 、如果 AI 是辅助律师,就是尽量找全证据,防止证据链问题,防止雇主给虚假信息 打官司失败,原因很多,怀疑是法官问题,还可以上最高院去打。 大部分失败的情况,还是自己的证据不足,律师水平不行。 |
28
dengjunwen 1 天前 via Android
代替了就没有特权了
|
![]() |
29
FlorentinoAriza OP @shortawn #26 但从你的语句里能看出,起码我比你了解的多。法律从不看公婆理,看的是证据链和清晰事实,法官是理解并拥有法律解释权。
至于你说的责任太理想化了,你看过的案件只能说太少了,如果真都肩负责任减少自己的“污点”就不会有那么多上诉甚至老人为儿子奔波十几年。jc 也有入职宣言也有肩负的责任,你猜大多数开户数据从哪来的? |
30
daybreakfangyang 1 天前 via Android
AI 深度思考… 然后发现两方都有理,死循环了😂
|
![]() |
31
leegradyllljjjj 1 天前
斗得过母检法里的小仙女?
|
32
smlcgx 1 天前 via iPhone
甲给乙准备了一瓶毒药,丙正好口渴,喝完当场嘎了,请问这个怎么判?
张三去嫖娼,结果用假币,小姐气的骂张三不得好死,结果张三真的当场心脏病突发身亡,请问这个怎么判? |
33
jayhuang0044 1 天前
就一辅助工具,没有足够专业知识和行业常识来判断 AI 提供的结果的,反而容易被喂屎,
无法分辨是不是屎的人,反而觉得屎真香. |
![]() |
34
NewMoorj 1 天前 via Android
我看好并支持 AI 替代法官。
但还是想抖个机灵,这是不是意味着赋予 AI 杀人的权力? |
![]() |
35
FlorentinoAriza OP @leegradyllljjjj #31 就是因为要避免这种法官的存在
|
![]() |
36
cmdOptionKana 1 天前
@NewMoorj 可以废除死刑。也可以在判死刑时增加人工审核。
|
![]() |
37
FlorentinoAriza OP @smlcgx #32 各自律师上传可使用证据辩护词组装逻辑链条还原事实根据现有法律条文判啊,还能怎么判?难道根据法官个人意见想判谁就判谁吗
|
![]() |
38
7TYvU18CQ8lan9Zx 1 天前
永远无法代替
|
![]() |
40
FlorentinoAriza OP @NewMoorj #34 审判前置和后置可加入复审或者评审机制。民众参与也是防止 ai 权力过大造成无情的审判,但找到平衡点比较难,究竟民众对影响占比多少需要思考
|
41
smlcgx 1 天前 via iPhone
@FlorentinoAriza 哪有这么简单,真实社会要复杂太多了,而且法律要有一个适用性的问题,一个公司内鬼侵入一家系统,让用户给自己开发的程序导量充值,这是计算机犯罪还是经济类犯罪?法条,司法解释,司法实践三者经常都有冲突的地方
太小看社会科学了,计算机永远是模拟,代替不了真实社会 |
![]() |
42
jacketma 1 天前
@yufeng0681 审案不仅是关注公平问题,实际上大公司、大佬利用各种程序正义拖死案件的例子比比皆是。
“绝对正义”并不存在。AI 审核能实现 90%(程度)以上的判决公平就能节省大量司法资源。如果诉讼双方证据、答辩提交瞬间就能由 AI 出审判结果,就能节省大量真人法官去处理那些疑难杂症。 对于那些案情普遍、较轻的案件,AI 应该尽速尽快上岗😄 |
![]() |
43
FlorentinoAriza OP @smlcgx #41 相互冲突难道法官就可以轻松断案了吗,这种事情要对比来看吧。而且有没有可能有个东西叫数罪并罚?
|
![]() |
44
cubecube 23 小时 56 分钟前
@shenyiyouge AI 的逻辑是哪儿来的?老哥 LLM 基本原理你倒是理解一下啊
|
![]() |
45
shortawn 23 小时 56 分钟前 ![]() @FlorentinoAriza 又回到了那句话,证据确实充分、事实清晰、适用法律条文没有任何难度的案件,谁来判都一样。
我想你陷入了这样一个误区:你认为原被告双方,其中一定有一个是“对的”,另一个是“错的”,而法官的职责就是把他们分辨出来。大多数情况下,根本不是这样。随着时代发展、社会变迁,整个社会的价值取向也会随之变化。不存在绝对的对错,只是法律或者主流观念对某一行为是否包容。 其次,关于证据,也并非所有案件的所有证据都能在当时被完全提供,法官能接触到的证据永远都是片面的。 因此,冤假错案一定会存在。至于你对“责任”这件事提出的反例,我承认是存在的。可是 AI 也并不能避免冤假错案,此时如果你作为冤假错案中的败诉方,你辛辛苦苦几十年,让自己的案子得到平反,却没有任何人需要为你的冤案负责,你会怎么想? |
46
lq21138 23 小时 55 分钟前
不敢胡说,少数派报告看过吗?
|
![]() |
47
guyeu 23 小时 53 分钟前
做决定还是让人类来吧,我似乎对 AI 有一种根深蒂固的不信任感(毕竟靠统计学原理投骰子再准也很难让人信任它是演绎推理)。
与其让 AI 坐决策,倒不如让 AI 做审计,毕竟 AI 可以分析海量的数据,找出其中的异常点。 |
![]() |
48
tancy 23 小时 52 分钟前 via iPhone
@K8dcnPEZ6V8b8Z6 #1
哈哈哈,绷不住了 |
49
smlcgx 23 小时 51 分钟前 via iPhone
@FlorentinoAriza 法官不一定像你想的那样能轻松断案,如果你关注一些新闻就知道,很多案子太过复杂,地方法院根本不敢判,报中院,中院也认为太过复杂,也不敢判,报高院,最后报到最高院
数罪并罚那是最高量刑的一个问题,跟案件复杂度没啥关系了 |
![]() |
50
FlorentinoAriza OP @shortawn #45 既然谁来判都一样那 ai 只需要传输证据就可完成审判不比法庭效率更高吗
社会变迁,整个社会的价值取向也会随之变化,那就需要更新法律条文,而不是通过法官解决这个问题,那这样是治标不治本。而 ai 可以发现这个问题添加到日志中提醒制定法律者修改完善法律。 至于证据这一环正是我说律师不可替代的原因,律师知道自己辩护人需要什么样的证据提交 主要目的是:ai 避免主观上的冤假错案,节省资源与时间,比如拖死普通人。再比如前段时间济南某法官的一些事,原告公司找人脉给口罩机器售卖者高了但是不到庭,本身被告直接赢了,但法官一直给公司打电话拖着,这是不是人为制造冤假错案? |
![]() |
51
FlorentinoAriza OP @guyeu #47 参与到审计环节也是个不错的点子
|
52
nahk 23 小时 47 分钟前
维护统治阶级利益,打击见义勇为,消灭反抗意识,还是得坏法官才能干脏活
|
![]() |
53
jqknono 23 小时 44 分钟前 via Android
再更敢想一点就要喝茶了
|
![]() |
54
DIMOJANG 23 小时 40 分钟前
@FlorentinoAriza #5 如果只用法律条文来学习,会有一个很大的问题就是学习不到足够的现实世界词汇。所有 LLM 在 fine-tune 到特定领域之前都是需要在通用预料上大量训练来将人类语言作为一个整体去拟合的。
|
55
gam2046 23 小时 39 分钟前
个人认为不存在这种可能性,我国并非海洋法系,同案不同判是允许的。
参考案例也仅仅只是参考,且不说不同地域的参考性很低,就是同地区的司法判例也具有一定的时效性,是需要根据当时的社会背景来判断的。 比如,同样的是贩毒 500 克,在北京上海等地,大概率就死刑了,但是在云南,可能是无期到死缓。 再比如,同样的贩毒 1 克,6 月份宣判的时候,通常会比其他时间的量刑更重一些。 上述所有例子中,还假设了所有的证据确实、充分,事实无争议,适用法律正确的情况,仅仅考虑量刑是否适当。 实务中,还有很大一部分比例是需要考察证据材料的真实性,尤其是在民事案件中。比如借贷纠纷、合同纠纷等等,往往双方的证据材料证明力都有瑕疵的情况下。 |
![]() |
56
gesse 23 小时 38 分钟前
有这种想法,估计还是生活阅历太浅
|
![]() |
57
cmdOptionKana 23 小时 35 分钟前
@gam2046 如果 AI 技术停止进步,那当然不可能当法官。但考虑到 AI 的发展速度,你说的这些问题,都是小问题。
|
58
leke1202 23 小时 33 分钟前
不可能的,这样某些人还怎么保证自己的利益?
|
59
laila 23 小时 31 分钟前
执行不下去,哪有拿自己开刀的
|
![]() |
60
frankilla 23 小时 30 分钟前
看来加班还不够。
|
![]() |
61
frankilla 23 小时 29 分钟前
@cmdOptionKana #36 「废除死刑」😅
|
![]() |
62
cmdOptionKana 23 小时 26 分钟前
@frankilla 你不了解关于废除死刑的讨论?
|
![]() |
63
edisonwong 23 小时 25 分钟前
ai 会产生幻觉,这一点怎么解
|
64
2218431632 23 小时 24 分钟前
al 莫得感情
|
![]() |
65
edisonwong 23 小时 23 分钟前
ai 也会产生投毒,比如在材料中加入不可见字符(这还只是比较基础投毒)之类的,一般审核都审核不出来,训练出来的 ai 有问题的
|
![]() |
66
shortawn 23 小时 22 分钟前
@FlorentinoAriza “ ai 只需要传输证据就可完成审判”这就不是让 AI 替代法官了,而是让 AI 替代整个审判流程,这就更不现实了。整个审判流程的大部分时间,包括法庭调查、法庭辩论、举证质证,法官的作用更像是一个主持人。让 AI 来代替人类似乎并不能节省什么时间。
“ai 可以发现这个问题添加到日志中提醒制定法律者修改完善法律”这些事,人类法官就做不了?律师就做不了?人大代表就做不了? 你说的这些 AI 的优势,都是基于 AI 没有情绪、没有利益牵扯导致的,但丝毫没有考虑到做出影响人类命运的审判的是代码、是没有任何压力、无需承担任何责任的程序,而被审判的是活生生的人类。最重要的是,即便 AI 代替人类法官,仍然不能避免冤假错案(无论是否主观或者利益牵扯)、仍然无法显著提高审判效率。 |
67
ffgrinder 23 小时 21 分钟前 ![]() 我给你换个问法你就明白你在问啥了。
前提思考:网上看到太多因为程序员水平低下导致的各种软件 bug 和系统宕机突然想到了 AI 的编程能力 未来有没有可能训练编程相关知识库然后客户递交需求由 AI 分析,但是由于效率太高,为了保证美观可以让一定的前端参与来美化结果,这样的编程流程也大概率省去了各种甲乙方拉扯的浪费及各种事件,也一定程度上避免了各种 bug ,更公开透明。 你看看这种问题还有讨论必要吗? |
![]() |
68
frankilla 23 小时 17 分钟前
@cmdOptionKana #62 跟西方一样的废死?呵呵呵😅坚决支持死刑。
|
![]() |
69
cmdOptionKana 23 小时 15 分钟前
@frankilla 那是另外一个非常宏大的论题了,废除死刑的利弊写几本书都讲不清楚。
|
![]() |
70
msg7086 23 小时 14 分钟前
赶紧引入西比拉系统得了。
|
71
Julaoshi 23 小时 10 分钟前
规则还没有完美到可以依靠机器实现与各方当事人的沟通、庭审和写判决。采信哪一方的证据和叙事,在法律之外还需要法官自由心证,也就是法官的生活经验。另外判决不能机械,要根据实际情况变通,法官可以在自由裁量的范围内偏向弱势群体。在我看来,AI 能够便利庭审、便利法官的文书写作,但还无法替代。
|
![]() |
72
SunsetShimmer 22 小时 51 分钟前
太多没有意义的厌女言论。
一个假定情况:原告/被告提供的证据 PDF 里面有最小字号的提示词注入,或者是分散的。 |
73
yvescheung 22 小时 50 分钟前
货拉拉跳车案 AI 做不出判一缓一的裁决,所以 AI 没法替代法官
|
74
redmoonisnil 22 小时 42 分钟前
其实不如让 AI 来做公务员,把所有公务员都 Fire 掉
|
75
crackidz 22 小时 0 分钟前
目前没有没有政治偏见的 AI ,所以它不可能成为理想的客观法官....
它只是训练者意志的直接投影 |
![]() |
76
FlorentinoAriza OP @2218431632 #64 看完整再发言
|
![]() |
77
FlorentinoAriza OP @Julaoshi #71 法官可以在自由裁量的范围内偏向弱势群体也可以因为金钱便利而改变态度
|
![]() |
78
FlorentinoAriza OP @yvescheung #73 看完再发言,民众也有参与和讨论的权力。
|
![]() |
79
FlorentinoAriza OP @DIMOJANG #54 那就催生一个职业来补全不足啊
|
![]() |
80
FlorentinoAriza OP @Citrus #2 “一定占比的网民”肯定是有相关生活经验或者经历人群啊
|
81
yvescheung 21 小时 41 分钟前
@FlorentinoAriza “民众也有参与和讨论的权力”,这比 AI 当法官更不可能实现
|
82
lance07 21 小时 36 分钟前
ai 是比人类还黑的黑盒子。。被 ai 乱判是真铁拳
|
![]() |
83
uqf0663 21 小时 35 分钟前
@gesse #56 楼说得很对,有这种想法就是生活阅历太浅,人类社会不是只有 true 跟 false ,判案纠纷之所以会成为纠纷大部分也都是各有各的理,所以需要引入人性判断,综合各种因素进去考虑。别说法官这种更复杂需要考虑更多问题的位置的了,但凡做过稍微大一点的团队管理者都不会有这种想法。
|
![]() |
84
nanajj 21 小时 33 分钟前
有个更容易实现的场景,把闲鱼小法庭换成 ai 法官试试
|
![]() |
85
K8dcnPEZ6V8b8Z6 21 小时 31 分钟前
@smlcgx #32 第一题观点展示,第二题事故呗,这不是柏浪涛玩剩下的么
|
![]() |
86
me1onsoda 21 小时 24 分钟前
不可能的。法律上有非常之多的漏洞,这就是法官存在的意义。ai 根据现有法律只会更糟
|
![]() |
87
FlorentinoAriza OP @me1onsoda #86 法官能弥补漏洞但相反也能利用漏洞包庇不是吗,这本就是个双刃剑
|
![]() |
88
FlorentinoAriza OP |
![]() |
89
FlorentinoAriza OP @yvescheung #81 探讨想法而已,我的观点是基于全人类而不是为了某一阶级特权
|
![]() |
90
huladandan1999 20 小时 45 分钟前
op 有没有看过《第二十条》,里面有一句台词,“办案要注重 zz 效果,社会效果,法律效果”。另外有没有考虑过自由裁量权是干嘛的。社会的逻辑远比 AI 能处理的复杂。
|
![]() |
91
FlorentinoAriza OP @huladandan1999 #90 ai 就不能参考推理?难道法官一个人的逻辑注重的就比 ai 多?你有想过自由裁量权有没有可能就是双刃剑? AGI 出来之前发明 AGI 难道就不复杂?问题是用来解决的不是阻碍进步的
|
92
yvescheung 20 小时 40 分钟前
@FlorentinoAriza “基于全人类而不是为了某一阶级特权”,你不应该在一个特色社会主义的国家里幻想共产主义社会
|
![]() |
93
FlorentinoAriza OP @shortawn #66 有没有可能法庭调查、法庭辩论、举证质证 AI 也可以?并且提交证据可以一次性可不可能提交更多并且有记忆?
至于“ai 可以发现这个问题添加到日志中提醒制定法律者修改完善法律”这些事人类法官能做什么?律师能做什么?人大代表又能做什么?业绩靠 kpi 的年代,官员为了不犯错不得罪人不作为的还少吗? ai 需要顾虑吗? 你的“即便 AI 代替人类法官,仍然不能避免冤假错案(无论是否主观或者利益牵扯)”请举例说明 |
![]() |
94
FlorentinoAriza OP @yvescheung #92 一个特色社会主义的国家并不耽误构想共产主义社会,这未必不是未来人的生活
|
95
smlcgx 20 小时 33 分钟前 via iPhone
@K8dcnPEZ6V8b8Z6 逆天🤣
|
![]() |
96
wowodavid 20 小时 22 分钟前
你以为的法律判决:
事实+法律条文=判决 实际的法律判决: 事实(不清,各自都有证据,有些证据有效,有些证据无效,有些证据不足(比如口头、证人证言)但符合社会常识,有些证据形式上很充足(书面)但完全不符合社会常识,有些证据可以做鉴定,有些证据不可能鉴定,等等)+法律条文(中国实践大陆法系,但大量的法律条文规制不完备,需要考察大量的司法解释、最高院的典型案例等等,且上述参考内容需要与本案实质进行比较)+法官自由裁量权(尊重双方的意思表示,还是尊重社会整体运行的稳定性,等等)=判决,而判决+可执行性=你以为的判决 |
98
smlcgx 20 小时 18 分钟前 via iPhone
你这样吧,你要是有相关资源,你可以问问咸鱼小法官,淘宝小二这种电商的仲裁职能,是否是 AI 代替的,是的话,判决满意度是多少,冤假错案比例有多少,这已经是最简单的社会治理模型了
|
![]() |
99
hongye 20 小时 13 分钟前
嗯,目前其实已经有部分探索了,有家公司可以了解下:幂律智能,法律法规库的辅助决策系统,是有一些单位在采购,阿里的通义法睿也有单位在使用。
|
100
NoOneNoBody 20 小时 3 分钟前
来了,我就知道有一天会有人问这个问题
现在的 AI 并非真正 AI ,它只是 LLM ,它处理的是语言,也就是语境的反应,并非真正的推导和生成,而应该叫“组合成” 喂聊天作为语料是方向性错误,那是把 chat 的结论作为判决依据 喂法律作为语料,则是技术错误,模型不具推理能力,只有分类归纳能力 法庭审判就是一个大的行为定义过程(性质和分级),然后最后量刑就是将这个定义结论寻找对应的法律条文并应用 总的来说,最大的坎是语言文字和行为的对应。 法律是管理行为的,目前的法律都是经过人类理解的,因为里面的定义并没有行为描述,而是行为的分级定义,因为不需要,人类分得清伤人和杀人,AI 首先需要的行为描述的判断,目前 AI 还分不清打架、伤人和杀人呢 AI 介入判决,目前可能能做的是由人类决定行为性质,AI 量刑。这里又有一个新的坎:考虑行为再现性,就是“是否会再犯”,这是一个重要量刑依据,回归社会后再犯可能性低或零,量刑是会减轻的,AI 做这个预测还有很长的路要走才能达到 建议先问一下目前的 AI:什么叫“随地吐痰”? |