
“AI跟前三次工业革命不一样,前三次是解放双手,这次是解放大脑。”“自动驾驶的所有创新几乎都来自于企业,高校已经不具备优势了。”“AI时代的产品经理不仅需要极致的技术追求,更需要‘克制’的伦理底线。”
1月15日,一场聚焦人工智能与技术扩散的思维盛宴——“扩散致远:前沿科创论坛”在河套深港科技创新合作区隆重举行。
香港科技大学深港协同创新研究院院长杨晶磊认为掌互通,与前三次工业革命“解放双手”不同,AI革命解放的是大脑,直接冲击了人类的认知与决策核心。如果科研工作不用AI,一定会被时代淘汰。他以自己的研究领域举例,像材料学这样传统上依赖人工实验的学科,如今也必须通过自动化和AI进行赋能,将科研人员从繁琐的重复工作中解放出来,转向更有见地的科学发现 。
深信科创创始人、中国科学技术大学计算机学院教授杨子江抛出了一个更具冲击力的观点:“科研创新的中心正在从学术机构向拥有海量数据(603138)和算力的企业转移 。在自动驾驶、具身智能等前沿领域,企业往往是新技术的首发地,高校反而成为了学习者。”
该现象不仅存在于自动驾驶领域,在目前火热的大模型研发上也有直接体现。斯坦福大学每年发布的《AI指数报告》显示,2014年是大模型研发的关键转折点:在此之前,最前沿的大模型(如早期的深度学习模型)主要由高校(如MIT、斯坦福)研发;2014年后,随着数据、算力、人才的规模化集聚,大型平台企业(如谷歌、微软、OpenAI、阿里、腾讯)成为大模型研发的绝对主体,高校和专业科研机构的占比微乎其微。
AI时代“技术扩散”路径的逆转,意味着未来的科研将不再是由高校为主体掌互通,而是深度植根于产业应用的土壤中,科创企业在其中的角色将越发重要。
AI的崛起也让传统教育模式面临严峻挑战。香港科技大学综合系统与设计学部主任张黔认为,教育应该更关注那些AI难以替代的领域,如发现问题的能力、系统性思维以及应对未知世界的探索欲。
进入2026年,AI应用在加速落地,无论是与硬件的结合还是Agent化,用户数据泄露风险都在加大,科技领军企业在技术投入、商业模式更迭和用户隐私保护方面的张力也越来越大,如何确保AI向善也成为一个行业与社会越来越关注的问题。
“大模型的更新速度实在是太快了,快到让人感到‘猝不及防’。” 腾讯研究院前沿科技研究中心副主任刘莫闲在论坛伊始便发出上述感慨。他从前沿技术应用的角度展望了AI对千行百业的赋能,甚至对于人类生命力提升的可能性。他同时指出,AI指数级的进化速度,不仅重塑了生产力,也将人类推向了一个前所未有的伦理十字路口。人类往往还来不及构建完善的法律与道德防火墙,就可能深陷技术带来的隐私泄露的风险之中。
杨子江教授从“具身智能”的维度,深刻剖析了隐私挑战的具象化。他提出,未来的AI不再仅仅存在于屏幕之后,而是拥有“身体”的机器人。他举了一个生动的例子:当一个机器人在餐厅服务或进入家庭环境时,它不仅在执行任务,其搭载的摄像头和传感器也在无间断地采集周围环境的数据。杨子江教授忧虑地指出,如果这些涉及“你在哪里、跟谁吃饭、说了什么”的敏感数据在云端被滥用,隐私将荡然无存。
腾讯战略传播中心总监廖芳莉将讨论引向了“价值对齐”与商业自律。她指出AI时代的技术扩散,往往存在“利益不一致”的隐患。她提出了一个发人深省的问题:“你的AI助手真的是以你的利益为第一考量吗?如果AI助手的操作运营以实现背后公司利益最大化为前提,而不是用户福祉为依归,那么隐私泄露与误导性决策将不可避免。”她认为,AI不仅要“好用”,更要“可信”,AI理当成为人类长期相处的伙伴,而不是潜在的监视者。
杨晶磊院长则建议一定要制定规范和框架AI的能力,他主张在科研与应用中建立“沙盒机制”掌互通,即在一个可控、可观察的环境中进行技术扩散与伦理实验。
永华配资提示:文章来自网络,不代表本站观点。