陶明:用ai 技术跟搞伦理治理、安全治理这两块我们都得抓紧才行

Soul的IPO进程还在继续,技术创新跟安全规范也在一块儿发展。平台提交IPO材料的时候,大家都挺关注它那个基于AI伦理的合规技术架构。陶明说了,Soul的AI布局就是围着提升体验和保障安全这两方面来的。一开始,Soul是把重点放在优化人际连接上的,后来还引入了生成式AI来拓展场景。为了能让发展更可持续,Soul把已有的规范都融进了AI研发和应用里,给自己建了个全流程治理体系。 大家也都知道,Soul是2016年上线的,从一开始就挺看重人工智能技术的。那会儿主要还是用传统机器学习和深度学习,就是为了让人跟人之间的连接更高效,好让用户更容易找到聊得来的伙伴,也能帮他们更好地表达自己和倾听别人。后来社交网络一直在变,用户的需求也越来越多样,光靠一种推荐算法肯定不行。所以到了2019年前后,Soul觉得生成式AI这块很有潜力,就开始布局这块业务了,想把社交体验再往上推一推。 陶明就说过,“社交其实是个多边或者双边的关系,好的体验得靠双方都能好好表达。”Soul做AI技术的核心就是想帮用户提高表达能力,把人际关系搞好。这种探索不光丰富了平台的社交场景,也让AI成了推动体验升级的主力。这事儿的发展路径特别清楚:从一开始用AI辅助连接变成现在用生成式AI打造多元体验。 不过呢,AI技术发展得快是快,但如果不把伦理管住可能就容易出问题,像隐私被侵犯或者算法有偏见啥的,这都很容易破坏用户的信任和社会的公义。所以Soul一直都很警惕这方面的问题。陶明特意强调:“用AI技术跟搞AI伦理治理、安全治理这两块我们都得抓得紧才行。”他还提到自从做社交业务开始,Soul就定下了两条安全底线——用户安全底线和内容安全底线。 为了守住这两条底线,Soul慢慢把社区行为规范和内容安全规范给建起来了。等到了AI社交这阶段的时候,Soul就直接把之前积累的治理经验用在AI场景里了。陶明说:“我们把之前的用户行为规范和内容安全规范直接套到了AI模型上,不用再搞那种传统的串联式安全过滤模式。”在底层数据治理这块儿,他们也搞了一套健康绿色、符合站内行为规范的数据机制和场景数据机制。 这么做其实就是想从根儿上保证交互安全。这番话把Soul把伦理治理放进技术底层的核心思路给透了底儿。也能看出来平台在技术创新跟伦理治理一块儿推进的时候有多有前瞻性。Soul做事特别讲究先把治理的事儿做好,通过定严格机制来管住数据用和防范风险。平台用合规的数据源训练模型也是为了让技术发展更安全点。 随着Soul的IPO推进这种把伦理放在最核心的策略也更凸显了对负责任创新的承诺。这就给大家展示了个好形象和可持续发展的潜力支持嘛。