针对社会某一现象运用工程伦理知识展开分析闫妮减肥
五一假期朋友圈文案简短去年,一篇叫《外卖骑手,困在系统里》的深度调查报道,引发全民对外卖行业商业伦理、职业风险、用户体验的讨论。2万字长文,23张配图,细数了美团、饿了么崛起背后平台、600万外卖骑手以及5亿用户之间的需求与矛盾。由于平台不断压缩送餐时间,外卖骑手“舍命狂奔”,事故不断,已成为“高危职业”。此外,报道还分析了苛责的用户评价、时效体系,制造并不断加剧了矛盾。事件发酵后,饿了么率先表示,将给用户“多等5分钟”的选择;美团则在一天后发文,表示认错、反思,将给用户“多等8分钟”的选项,并将加大资金和技术投入,保障骑手安全和权益。外卖行业已高速冲入“下半场”,外卖平台、商家、骑手的矛盾日益凸显。我们不禁会思考到底是谁“偷走”了外卖骑手的时间和安全?谁应该承担这种责任?“他”为什么要这样做?是什么加剧了外卖平台、商家、骑手的矛盾?
案例介绍
在过去一年多时间里,美团配送团队在机器学习、运筹优化、仿真技术等方面,持续发力,深入研究,并针对即时配送场景特点将上述技术综合运用,推出了用于即时配送的「超级大脑」——O2O即时配送智能调度系统。
系统首先通过优化设定配送费以及预计送达时间来调整订单结构;在接收订单之后,考虑骑手位置、在途订单情况、骑手能力、商家出餐、交付难度、天气、地理路况、未来单量等因素,在正确的时间将订单分配给最合适的骑手,并在骑手执行过程中随时预判订单超时情况并动态触发改派操作,实现订单和骑手的动态最优匹配。同时,系统派单后,为骑手提示该商家的预计出餐时间和合理的配送线路,并通过语音方式和骑手实现高效交互;在骑手送完订单后,系统根据订单需求预测和运力分布情况,告知骑手不同商圈的运力需求情况,实现闲时的运力调度。通过上述技术和模式的引入,订单的平均配送时长从2015年的41分钟,下降到32分钟,进一步缩短至28分钟,另一方面,在骑手薪资稳步提升的前提下,单均配送成本也有了20%以上的缩减。
但骑手们永远也无法靠个人力量去对抗系统分配的时间,他们只能用超速去挽回超时这件事。一位美团骑手告诉《人物》,他经历过的最疯狂一单是1公里,20分钟,虽然距离不远,但他需要在20分钟内完成取餐、等餐、送餐,那天,他的车速快到屁股几次从座位上弹起。
超速、闯红灯、逆行……在我看来,这些外卖骑手挑战交通规则的举动是一种逆算法,是骑手们长期在系统算法的控制与规训之下做出的不得已的劳动实践,而这种逆算法的直接后果则是—
外卖员遭遇交通事故的数量急剧上升。2017年上半年,上海市公安局交警总队数据显示,在上海,平均每2.5天就有1名外卖骑手伤亡。同年,深圳3个月内外卖骑手伤亡12人。2018年,成都交警7个月间查处骑手违法近万次,事故196件,伤亡155人次,平均每天就有1个骑手因违法伤亡。2018年9月,秦皇岛交警查处外卖骑手交通违法近2000宗,美团占一半,饿了么排第二。
刘隽个人资料案例分析怎么发给所有人
我们看到了“困在算法里”的外卖平台骑手们,面对不断压缩的订单送达时间,他们没有选择,只能遵循算法的设计逻辑,看着手机上一条直线的数字地图,在现实的道路上“与死神赛跑,和交警较劲,和红灯做朋友”。我们做了以下思考:
1.谁“偷走”了外卖骑手的时间和安全?是人工智能算法。算法不仅仅学习了外卖骑手正常行驶下最好的路线,还学习了某些“聪明的”外卖骑手非正常形式的路线,这就导致了算法系统就认为外卖骑手们都有能力达成如此的效率,使得外卖订单越来越难按约定时间送到,从而外卖骑手在如此重压下,往往会铤而走险,最终酿成惨剧。
但是算法永远都是工具,算法没有错,错的只是操作算法的人,即算法工程师,算法工程师应该
承担这个责任。算法如何压榨外卖骑手的原因很多程度上在于算法工程师松弛了骑手们应该遵守规则的限制,将某些“非常规”行驶的外卖骑手的行为视为不见。
2.算法工程师这样做,导致各种惨案,难道不觉得违心吗?可能他们未必会觉得违心,首先因为从个人角度考虑,他们只创造算法,但是算法别人怎么用,用在哪里,跟自己无关了;其次,从公司角度考虑,他们为公司创造利润,公司给予他们回报,合规合法;再次,从职业角度考虑,他们的工作就是为了解决最优化问题,为雇主获得最大利润;最后,从社会角度考虑,人工智能算法的数据来源于外卖骑手本身,是外卖骑手本身的不规范,才导致的算法学习到这种方式。
kiss good bye3.算法工程师的解释看似都合规合法,但这个问题的根源到底在哪?根源就是他们的行为虽然合规合法,但是他们违背了工程师的伦理责任。James Armstrong等人在《决策者:工程师的伦理学》一书中指出,工程师具有多种角:统治者—因其拥有技术政治和物质财富而被看作乌托邦社会中的决定性角;守望者—以工程知识为基础,追求社会利益的最大化;有产者的仆人—管理者的仆人,将管理者的思想变成现实;社会的仆人—忠诚于社会事业;遵守社会规范的游戏者—按照政治和经济的规则,希望在竞争中获胜。因此,算法工程师不仅要对雇主(组织)忠诚、要对职业忠诚,还要对社会忠诚。明知不可为而为之,利用某些外卖骑手的不规范,强行加到每个骑手,这样的压迫,压榨行为并不是对职业忠诚,也不是对社会忠诚。
4.算法工程师应该怎么做?他们应该去寻到创造性的中间解决方式,但如果暂时没有到这种方式,当雇主、职业、社会三者之间存在冲突时,工程师要优先忠诚于社会,次之是职业,再次是雇主(组织)。
5.是什么加剧了外卖平台、商家、骑手的矛盾?深层原因是什么?一些矛盾的背后,最根本的原因往往都不是矛盾对象以外的问题,而是矛盾对象本身的问题。外卖平台太重视效率,消费者太在乎外卖的派送时间,外卖骑手为了挣钱,敢于冒险。平台速度是一种时间节奏,集中体现着平台规则和算法支配下的统一性、规划性和标准性,而且蕴含着一种肤浅的消费哲学,代价就是将劳动者的主体性、情感性和立体感隐藏起来,这也助推了平台算法所带来的社会不平等,从而加剧了三方的矛盾。
关于人工智能算法的结论与建议:
建构算法风险伦理评估模型与审查体系
人工智能应该是道德的、向善的,但对算法的道德要求、技术标准、评估体系等方面,仍然存在很大的提升空间。算法的关键属性特征能够影响风险的形成效果,而算法风险的准确评估则
需要经历一个较为复杂的认知与实现过程。算法由编程代码组成,而编程代码本身是无法监管的。相反,只有相应的规范管理实体或规范的实际结果才能被规范。当过兵站过岗
提升算法的伦理信任阈值与制定评估指标
为防止算法欺骗或者操纵人类,在人与算法互动的过程中维护人的能动性,提升算法伦理信任阈值是防范算法风险的重要路径。伦理信任阈值包括算法风险与伦理相关的主题要素,如透明度、可解释性、价值观、公众道德期望等。这些伦理维度的量化特征属性,将与算法风险有关的各种度量指标纳入伦理设计过程之中,涵盖了大部分已经达成的伦理共识原则。不正当偏见的损害性主张容易造成算法的可信度下降,因此算法在设计之初便要符合道德规范的设计,嵌入相对公平的伦理价值,以避免造成算法的越界应用和不当后果。
设立算法风险伦理问责机制
算法以及源代码获取的渠道日益开源,其安全可靠性成为衡量算法风险的重要因素,这就要求我们不仅要对技术的精准使用负责,还要对其可能造成的社会伦理影响负责。从认知科学视角探讨算法风险的社会影响,从伦理嵌入、风险评估、公众参与等方面,探讨基于社会影响和公众接受度的算法风险认知,是消除算法偏见、实现公平正义的重要途径。
其他与人工智能相关的伦理问题。
发布评论