豆瓣
扫码直接下载
这是一本很牵强,有偏见的书. 作者作为数据科学家给我的感觉就是害怕数据.数据本身是没有好坏的,到了人的手里有不同的用法. 书中举的由于模型偏见带来的问题,我感觉作者是在讨好中下阶层的人.或许这些人才是这本书的受众,可以把自己的不行归结到社会上. 整本书也没有给我更多的启发, 我也没有看到作者会为此做出切合实际的行动或者建议. 书名能吓人, 给偏见找一个帮凶(这本书是数据),提出一个可以泛泛而谈的问题,却没有实际建议. 这本书十分糟糕 说实话,模型不是万能的,需要透明化不断调整。这个观点我赞同,但让算法跟公平牵扯在一起讨论就很牵强了。算法是真实的,但公平是不存在的,
把算法的缺点放大到极致,影响到教育、理财、就业、社会管理,几乎是生活的各个领域,本质上是效率和公平的问题,个体、阶层、地域的差异很可能会被算法一刀切带过。算法可以解放人类劳动,但并不意味着可以一劳永逸地把决定权交给机器,所以需要及时反馈和改进模型。具有偏见的和陷阱性的替代变量,加上信息使用和算法的不透明则使得算法具有欺骗性,因此适当的自律和监管是有益的。
在地铁上快速读完了,令人意外,还挺好看的。我们正处在一个从现实世界向数字世界迁移的过程中,数字世界是少数人创造,奴役多数人的世界。算法,或者说各种自动化系统,是数字世界提高效率的关键。这些算法为谁服务?这是核心问题。算法的不透明,大规模,损害,其实只是权力的不透明/大规模/损害的体现。算法也要透明,闭环,个人化,每个人都需要带上自己的算法武器,对抗政府的算法霸权。
case有点意思,比较冗长
Cathy O'Neil定义的数学杀伤性武器(Weapons of Math Destruction)有三个特征:不透明、规模化、毁灭性。它的构建过程存在着许多有害的假设,这些模型包裹着数学精确性的外衣,流行于市场,未经检测便投入使用,而人们对此却毫无争议。
带着好奇心查了作者举的一些例子,发现不少都是作者臆想的
指出了问题但不解决问题的书在我看来简直就是耍流氓。抱怨社会体系不够完善需要写一本书吗?我知道了我的生活很大程度被算法决定了,又能怎样呢?哪来的绝对公平呢?高考也是不够公平的筛选方式,但你不找出更好的办法,只是抱怨有什么用?
Gotta game the model!!!
两个小时翻完的这本书,因为话题一直有关注,个人比较熟悉所以能这么快,相对我自己。数据和模型在当下的社会无处不在,这本书为了强调数学杀伤性武器这个观点难免偏颇,但是其中的人文关怀是值得肯定的,当下的模型也确实有非常多的问题。不过在中国这个充满社达主义者的社会来看,这本书值得讥讽的地方肯定不少。认清这些模型潜在的危害,是我们善用改进它的保证,开发者的责任感,数据立法,公权机构公开数据和机制是可能的办法。数据和模型从出来后便不可能再消失,如何利用是对全人类的考验。(很符合当下现实的是,这本书多次举例提到了美国的种族偏见,真的是弥漫全社会的系统性偏见,希望灯塔国能彻底解决这个问题,作为种族大熔炉,这个问题持续了百年,也该解决了。
他们什么都知道,他们什么都想要。
How damage the WMD serves the world... #English
@2020-11-23 08:12:28 @2020-12-20 15:16:24
讲述算法通过怎样的程序步骤实现影响的部分很有意思
1、公平是模糊的,很难量化,关键在于如何界定公平;2、作者提到,“电子评分建模者回答的是,像你这样的一类人过去的行为表现如何。理想情况下,应该问的问题是,你过去的行为表现如何。但是这很难区分;3、作者认为,“数据越多越好是信息时代的指导原则,但是考虑到社会公平,一部分数据理应被排除在外”。 怎么办:1、确保信用评分的公平性;2、确保消费者可以看到数据档案对评分的影响,禁止在信用评分中纳入种族或者性别因素;3、参考欧洲模式:规定收集任何数据都必须经过用户的批准,用户有选择权,禁止将数据用于其他目的;4、对生活有重大影响的模型,包括信用评分系统和各类电子评分系统,都应该对公众公开
从来没有这么坚决地给一本畅销书评出五颗星,这真的是一本数字化生存时代的急救手册,让我们明白自己身处的已知但无法改变以及更多未知却每时每刻都在经历的数据歧视和数字凌霸。该怎么办,书中给出了一些颇具说服力的建议,但对于更多的人来说,第一步应该是觉知,然后自觉地去传播他们的觉知,这也许就是技术时代的新启蒙运动。
1、按李航《统计学习方法》的第一章,统计学习方法包含了三个要素:模型、策略和算法。个人感觉这本书其实讨论最少的其实就是算法:例如以学生成绩来评价老师的案例,根本错误就出在选取最优模型的策略上,这样算法几乎没有正确的可能。不止这本书的标题翻译问题,算法就是个大筐,什么都能往里装。 2、书本身就是面向大众的科普通俗读物,不过“选民扩音器”(voter megaphone)的案例从今天看这个真的太重要了。 3、我甚至有一丝感觉,好模型和坏模型的界限其实不模糊,不涉及社会的才有可能是好模型,只要是涉及社会的模型都难免有不可预知的外部性。我们所能做的就是公开化和审查监督。
今天看了《黑镜》第三季第一集,恰巧又读完本书,我想说我喜欢、支持,并且认为社会需要作者这种末世感和技术悲观主义。书很好读。
科普闲聊的写法,内容和想法好过某些社会学的博论
有价值的是列举了出了许多非常具有探讨意义的算法模型。(目前国内的算法模型感觉还处于黑箱)
数据大杀器就把你我当成待宰的羔羊,而这种情况我们恰恰无能为力。
> 算法霸权
24 有用 Nemo 2018-11-03 19:57:21
这是一本很牵强,有偏见的书. 作者作为数据科学家给我的感觉就是害怕数据.数据本身是没有好坏的,到了人的手里有不同的用法. 书中举的由于模型偏见带来的问题,我感觉作者是在讨好中下阶层的人.或许这些人才是这本书的受众,可以把自己的不行归结到社会上. 整本书也没有给我更多的启发, 我也没有看到作者会为此做出切合实际的行动或者建议. 书名能吓人, 给偏见找一个帮凶(这本书是数据),提出一个可以泛泛而谈的问题,却没有实际建议. 这本书十分糟糕 说实话,模型不是万能的,需要透明化不断调整。这个观点我赞同,但让算法跟公平牵扯在一起讨论就很牵强了。算法是真实的,但公平是不存在的,
14 有用 吴慢慢 2018-10-22 11:29:59
把算法的缺点放大到极致,影响到教育、理财、就业、社会管理,几乎是生活的各个领域,本质上是效率和公平的问题,个体、阶层、地域的差异很可能会被算法一刀切带过。算法可以解放人类劳动,但并不意味着可以一劳永逸地把决定权交给机器,所以需要及时反馈和改进模型。具有偏见的和陷阱性的替代变量,加上信息使用和算法的不透明则使得算法具有欺骗性,因此适当的自律和监管是有益的。
4 有用 nono 2020-06-16 10:23:18
在地铁上快速读完了,令人意外,还挺好看的。我们正处在一个从现实世界向数字世界迁移的过程中,数字世界是少数人创造,奴役多数人的世界。算法,或者说各种自动化系统,是数字世界提高效率的关键。这些算法为谁服务?这是核心问题。算法的不透明,大规模,损害,其实只是权力的不透明/大规模/损害的体现。算法也要透明,闭环,个人化,每个人都需要带上自己的算法武器,对抗政府的算法霸权。
3 有用 litinan 2020-10-18 11:37:51
case有点意思,比较冗长
2 有用 slavezero 2021-04-10 15:38:25
Cathy O'Neil定义的数学杀伤性武器(Weapons of Math Destruction)有三个特征:不透明、规模化、毁灭性。它的构建过程存在着许多有害的假设,这些模型包裹着数学精确性的外衣,流行于市场,未经检测便投入使用,而人们对此却毫无争议。
2 有用 二源 2021-12-04 20:55:18
带着好奇心查了作者举的一些例子,发现不少都是作者臆想的
2 有用 Labyrinth 2022-01-07 15:02:41
指出了问题但不解决问题的书在我看来简直就是耍流氓。抱怨社会体系不够完善需要写一本书吗?我知道了我的生活很大程度被算法决定了,又能怎样呢?哪来的绝对公平呢?高考也是不够公平的筛选方式,但你不找出更好的办法,只是抱怨有什么用?
0 有用 一锅脑浆粥 2019-01-19 17:48:45
Gotta game the model!!!
1 有用 Zhen 2020-06-03 23:16:29
两个小时翻完的这本书,因为话题一直有关注,个人比较熟悉所以能这么快,相对我自己。数据和模型在当下的社会无处不在,这本书为了强调数学杀伤性武器这个观点难免偏颇,但是其中的人文关怀是值得肯定的,当下的模型也确实有非常多的问题。不过在中国这个充满社达主义者的社会来看,这本书值得讥讽的地方肯定不少。认清这些模型潜在的危害,是我们善用改进它的保证,开发者的责任感,数据立法,公权机构公开数据和机制是可能的办法。数据和模型从出来后便不可能再消失,如何利用是对全人类的考验。(很符合当下现实的是,这本书多次举例提到了美国的种族偏见,真的是弥漫全社会的系统性偏见,希望灯塔国能彻底解决这个问题,作为种族大熔炉,这个问题持续了百年,也该解决了。
0 有用 Pekoe 2020-10-16 01:05:59
他们什么都知道,他们什么都想要。
0 有用 抽抽经会被虐 2018-11-13 00:12:16
How damage the WMD serves the world... #English
0 有用 吕畅九 2020-11-23 08:12:28
@2020-11-23 08:12:28 @2020-12-20 15:16:24
1 有用 Elina 2021-01-31 17:47:33
讲述算法通过怎样的程序步骤实现影响的部分很有意思
1 有用 怀沙why 2021-04-04 16:07:32
1、公平是模糊的,很难量化,关键在于如何界定公平;2、作者提到,“电子评分建模者回答的是,像你这样的一类人过去的行为表现如何。理想情况下,应该问的问题是,你过去的行为表现如何。但是这很难区分;3、作者认为,“数据越多越好是信息时代的指导原则,但是考虑到社会公平,一部分数据理应被排除在外”。 怎么办:1、确保信用评分的公平性;2、确保消费者可以看到数据档案对评分的影响,禁止在信用评分中纳入种族或者性别因素;3、参考欧洲模式:规定收集任何数据都必须经过用户的批准,用户有选择权,禁止将数据用于其他目的;4、对生活有重大影响的模型,包括信用评分系统和各类电子评分系统,都应该对公众公开
2 有用 喊走哥 2019-05-24 17:31:32
从来没有这么坚决地给一本畅销书评出五颗星,这真的是一本数字化生存时代的急救手册,让我们明白自己身处的已知但无法改变以及更多未知却每时每刻都在经历的数据歧视和数字凌霸。该怎么办,书中给出了一些颇具说服力的建议,但对于更多的人来说,第一步应该是觉知,然后自觉地去传播他们的觉知,这也许就是技术时代的新启蒙运动。
0 有用 Izayoi Aki 4.0 2022-03-25 14:47:14
1、按李航《统计学习方法》的第一章,统计学习方法包含了三个要素:模型、策略和算法。个人感觉这本书其实讨论最少的其实就是算法:例如以学生成绩来评价老师的案例,根本错误就出在选取最优模型的策略上,这样算法几乎没有正确的可能。不止这本书的标题翻译问题,算法就是个大筐,什么都能往里装。 2、书本身就是面向大众的科普通俗读物,不过“选民扩音器”(voter megaphone)的案例从今天看这个真的太重要了。 3、我甚至有一丝感觉,好模型和坏模型的界限其实不模糊,不涉及社会的才有可能是好模型,只要是涉及社会的模型都难免有不可预知的外部性。我们所能做的就是公开化和审查监督。
1 有用 冬眠的考拉 2022-04-01 16:44:49
今天看了《黑镜》第三季第一集,恰巧又读完本书,我想说我喜欢、支持,并且认为社会需要作者这种末世感和技术悲观主义。书很好读。
1 有用 柚儿圆 2022-03-09 23:15:57
科普闲聊的写法,内容和想法好过某些社会学的博论
1 有用 Friedhelm 2022-02-16 15:12:49
有价值的是列举了出了许多非常具有探讨意义的算法模型。(目前国内的算法模型感觉还处于黑箱)
0 有用 淡定哥走路带风 2022-02-19 03:24:42
数据大杀器就把你我当成待宰的羔羊,而这种情况我们恰恰无能为力。