咱们聊聊这事儿,最近有第三方配件在折腾MacBook,给它加上触屏功能,这又把大伙儿关于操作系统怎么玩的老话题给翻出来了。苹果那时候不卖带触摸屏的MacBook,跟Windows那边那些动不动就给屏幕配触控的牌子不一样。不过大家伙儿心里头肯定是想要这种“触屏Mac”的。最近出了个叫Magic Screen的东西,说白了就是一块能贴在MacBook屏幕上的透明板,连USB-C线就能把手指和触控笔的操作弄上去。把它卸下来,这板子还能当个独立的绘图板用。 虽然这招看着有点费事儿,也不算是原生设计,但它出现了本身就说明点问题。这玩意用了个拐弯抹角的办法,逼着咱们再去琢磨“苹果为啥死活不给Mac配触屏”。从技术发展和用户习惯来看,苹果其实也没放弃触控体验。它一直升级MacBook触控板的体验,搞什么Sidecar和Universal Control来让iPad和Mac连在一起干活,还在iPadOS上使劲优化Apple Pencil的生态系统。所以说苹果其实是通过让设备联动的方式来响应触控需求的。 可是人家就是不直接在显示器上加上一层触控层。行家们觉得这是因为他们在底层交互逻辑上想明白了事儿。macOS这个桌面系统讲究的是精确输入。那些菜单栏、窗口大小还有密密麻麻的软件控件最适合的就是鼠标和触控板这种能精确定位的东西。这时候你要是用手指去按按钮或者选文字,因为手指太粗糙、容易挡住视线或者按不准的问题就很容易出来。 以前微软想把平板和电脑的体验混在一块搞过好几次,但结果都挺失败的。界面一会儿像桌面一会儿像平板的,搞得用户很不习惯。这就把苹果给吓住了,觉得还是保持系统的纯粹性比较好。所以他们这是在故意搞区隔策略:iPadOS就专门搞深度优化的触控体验,macOS还是继续在高精度、高强度的专业领域发力。这两个系统通过技术连在一起用就行,没必要强行合并。 现在问题来了:要是Mac真配了原生触屏,会不会抢iPad的饭碗?大家普遍觉得不用太担心。iPad的核心不光是个能按的屏幕,更在于它那套从根儿上就是为了触控设计的应用生态。那些iPad应用的按钮位置和操作习惯都是默认用手指的。就算以后Mac屏幕能按了,像Final Cut Pro、Xcode、Photoshop这种专业软件界面复杂、按钮密集,也不是给手指按的优化设计。你用触控去选个东西、翻个页还行,要是真要做精细的工作流,还是鼠标加键盘效率高。 这类配件的出现也是市场需求多样化的一个缩影。它不一定能代表以后的主流路子,但确实能让大伙儿更深入地想想不同电脑的核心价值到底是啥。在技术这么快发展的年代里,设备怎么组合、怎么玩交互还得继续探索下去。不过真正好的体验可能不是简单堆功能就行的,关键是看在什么场景下用哪种最顺手、最高效。苹果现在这套“各自为政又能互相配合”的生态策略能不能行得通还不好说。但可以肯定的是,大家关于下一代电脑怎么定义的讨论肯定会因为这些新鲜玩意变得更激烈。