AI如今成了企业的标配,但投入跟价值往往没对上号。这到底咋回事?在多伦多湖水质量监测的失败案例里,我们能看到判断被算法取代的风险。企业 HR 用 AI 筛选简历、金融风控运用 AI,这些现实的困境里,算法放大了偏见,低估了极端风险,甚至让决策没了人性的温度。企业得好好辨别真 AI 的价值和那些 AI 故事。 王芳 Freda 现在担任捷豹路虎中国及奇瑞捷豹路虎联合市场销售与服务机构市场部执行副总裁。她请来了《AI万金油》译者、在金融圈浸淫多年的王勇博士一起聊聊这个。预测和判断的核心差异,成了很多企业用 AI 的盲区。 数据垄断背后,消费者要面临啥风险?本期播客带你穿透迷雾,找到新的方向。我们带你预见未来趋势,不追逐热点,也不随波逐流。要清醒用 AI,不做工具的奴隶。这是我们第23期节目。 在Spotify、Apple播客、喜马拉雅、小宇宙等平台上都能听到完整音频。这是彭博《商业周刊》的【总之】栏目。主理人是王芳 Freda,她之前还做过阿斯顿·马丁中国区总裁和奔驰中国市场营销总监。 她的Lead还在继续发布和跟进。这次她对话了王勇博士。他们共同探讨了AI的真正能力边界在哪里。他们要戳破那种“AI包治百病”的认知泡沫。 主播 Freda 还把大家的注意力给了数据垄断带来的影响上。她给大家讲了一个真实案例:多伦多湖水质量监测的失败过程中暴露了算法带来的偏见问题。她说真正的判断和责任永远该由人类自己执掌。 这个节目从多伦多湖的失败说起,一直讲到企业 HR 简历筛选和金融风控的实际应用情况上。很多时候我们把判断交给了机器处理了,结果却是适得其反的情况出现了——算法放大了偏见、低估极端风险甚至让决策失去了温度感。 她没谈技术神话,只聊最现实的应用本质。从多伦多湖水质量监测失败案例中我们可以看到把判断外包给AI后的一些弊端——算法会放大偏见和风险,甚至让决策失去了人性温度感。所以主播Freda 和 王勇博士一起拆解了企业在应用 AI 时的核心误区。 如果你想了解更多关于这个话题的信息可以去Spotify 或者Apple播客上收听完整节目内容哦!