作者:
[美]弗吉尼亚·尤班克斯
出版社: 商务印书馆
副标题: 高科技如何锁定、管制和惩罚穷人
原作名: Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor
译者: 李明倩
出版年: 2021-4
页数: 227
定价: 78.00
装帧: 平装
丛书: 法律与科技译丛
ISBN: 9787100195065
出版社: 商务印书馆
副标题: 高科技如何锁定、管制和惩罚穷人
原作名: Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor
译者: 李明倩
出版年: 2021-4
页数: 227
定价: 78.00
装帧: 平装
丛书: 法律与科技译丛
ISBN: 9787100195065
这本书的其他版本 · · · · · · ( 全部3 )
以下书单推荐 · · · · · · ( 全部 )
- 鎮長的新書列 (鎮長)
- 怎能读尽天下书 (疏狂老鬼)
- 法学nerd的偏冷读书世界 (The Second)
- 技术、社会与人(STS 视角看技术) (Prunus d)
- 书单|社会学20230418 (宇凡)
谁读这本书? · · · · · ·
二手市场
· · · · · ·
- 在豆瓣转让 有1144人想读,手里有一本闲着?
订阅关于自动不平等的评论:
feed: rss 2.0










6 有用 Rosin 2021-07-18 00:09:09
质性研究学习素材,但是整体思路感觉很散不是很流畅……阅读过程总让我走神有些累。其实概括下来无非就是追求效率无可厚非但算法带来了更大的阶级分化,我感觉这更像是政策的制定就没有真正从受政策影响者的角度去考虑。“为你好”永远都是一种傲慢和自以为是。书里提到的算法逻辑,在我看来像是被精致愿景包装的“西比拉系统”,因为个体差异,我从来都不认为人的行为是可以被准确预判的。阅读过程就觉得……从存在主义又陷回了虚... 质性研究学习素材,但是整体思路感觉很散不是很流畅……阅读过程总让我走神有些累。其实概括下来无非就是追求效率无可厚非但算法带来了更大的阶级分化,我感觉这更像是政策的制定就没有真正从受政策影响者的角度去考虑。“为你好”永远都是一种傲慢和自以为是。书里提到的算法逻辑,在我看来像是被精致愿景包装的“西比拉系统”,因为个体差异,我从来都不认为人的行为是可以被准确预判的。阅读过程就觉得……从存在主义又陷回了虚无主义当中。 (展开)
0 有用 cancel 2022-01-02 20:01:51
粗略的讲了讲算法歧视,内容不够丰富,讨论也不深。
16 有用 盐少女 2021-06-30 14:23:32
只适合对“算法歧视”完全没有了解的人读,案例写得混乱、零散且无聊,对机构和对受助者两方都没有集中深入的跟踪调查,只有非常松散的数字和引言。对我来说,全书保留最后一章大概就够了。回归到内容,其实科技创造的不平等在如今已经越来越多被关注到,数据当然是客观的,但处理数据的方法却是带着立场和偏见的,因此,算法永远都不可能真正中立。
0 有用 leungtong33 2025-06-29 18:31:00 广东
《自动不平等》一书揭示了美国福利系统数字化转型过程中对贫困和工人阶层的系统性歧视与伤害。作者弗吉尼亚·尤班克斯通过三个典型案例 —— 印第安纳州福利自动化系统的失败、洛杉矶无家可归者算法评分系统、阿勒格尼县儿童虐待预测模型 —— 展现了高科技工具如何被嵌入偏见,成为「数字济贫院」的核心组件。 书中,作者采取了案例叙事及分析的方式,读者阅读之时需要极大的耐心。
4 有用 u758212 2021-07-01 00:56:02
非常、非常漂亮的定性研究佳作。尽管我对其中的部分论断持有不同意见,但本书提出的问题、分析的案例,无论是写作还是内容都很精彩。作者强调大数据会给行政机关提供一道屏障,掩盖其背后对穷人权利的侵犯。作者提出的两大原则值得在此引用:“该技术工具是否增加了贫困人群的自决权?如果该工具的目标对象是非贫困人群,他们是否可以容忍?”