您现在的位置是:系统运维 >>正文
初级开发者过度依赖 AI 的风险
系统运维884人已围观
简介当ChatGPT等工具出现故障时,软件开发人员离开工位、临时休息或沮丧地靠在椅背上的场景并不罕见。对许多技术从业者而言,AI辅助编码工具已成为日常便利。即便是像2025年3月24日那样的短暂中断,也可 ...
当ChatGPT等工具出现故障时,初级软件开发人员离开工位、度依临时休息或沮丧地靠在椅背上的风险场景并不罕见。对许多技术从业者而言,初级AI辅助编码工具已成为日常便利。度依即便是风险像2025年3月24日那样的短暂中断 ,也可能导致开发工作停滞。初级
"该泡杯咖啡晒15分钟太阳了,度依"一位Reddit用户写道。风险"同感 ,初级"另一人回复道 。度依

包括网络安全从业者在内的风险技术专业人员对ChatGPT等生成式AI工具的依赖正持续增长。建站模板这些工具正在改变开发者编写代码、初级解决问题 、度依学习和思考的风险方式——通常能提升短期效率 。但这种转变伴随着代价:开发者可能弱化自身的编码和批判性思维能力 ,最终对个人及其所在组织产生长期影响 。
"我们注意到初级从业者(尤其是刚进入网络安全领域的人员)普遍缺乏对系统层面的深入理解,"Tuskira联合创始人兼CISO/CPO Om Moolchandani表示 ,"许多人能生成功能性代码片段,却难以解释其底层逻辑或针对真实攻击场景进行加固 。"
微软近期调查印证了Moolchandani的观察:依赖AI完成部分工作的香港云服务器员工往往较少深入质疑 、分析和评估自己的工作成果 ,特别是当他们相信AI能提供准确结果时 。"使用生成式AI工具时,批判性思维的投入从信息收集转向信息验证 ,从问题解决转向AI响应整合,从任务执行转向任务监管,"报告指出。
短期收益与长期风险部分CISO对AI代码生成器(尤其是初级开发者群体中)日益增长的依赖性表示担忧,另一些则持观望态度,认为这可能是源码库未来问题而非当前威胁。Endor Labs首席信息安全官Karl Mattson指出 ,多数大型企业的AI应用仍处早期阶段 ,实验收益仍大于风险 。
"我尚未看到明确证据表明AI依赖导致基础编码技能普遍退化,"他表示 ,"当前我们处于创造性乐观阶段 ,通过原型设计获取AI应用的早期成功。核心基础能力的衰退似乎还很遥远 。"
但已有专家观察到过度依赖AI编写代码的影响。耶鲁隐私实验室创始人兼PrivacySave首席执行官Sean OBrien对此表示强烈担忧 :重度依赖ChatGPT或低代码平台的开发者"往往形成氛围编码心态 ,源码下载更关注功能实现而非理解工作原理"。
Cynet首席技术官Aviad Hasnis特别关注初级从业者"严重依赖AI生成代码却未充分理解其底层逻辑"的现象 。他认为这种过度依赖对个人和组织构成多重挑战:"网络安全工作需要超越AI建议的批判性思维 、故障排除能力和风险评估能力。"
DH2i联合创始人兼CTO Oj Ngo警告,虽然AI代码生成器能提供快速解决方案和短期收益,但长期依赖可能适得其反 :"当AI系统不可用或不足时 ,开发者可能难以适应,最终影响其作为创新者和技术专家的效能。"
合规盲区与法律风险随着生成式AI深度融入软件开发和安全工作流 ,网络安全领导者对其可能引入的盲区表示担忧。
"AI能生成看似安全的服务器租用代码 ,但缺乏对组织威胁模型 、合规需求和对抗风险环境的上下文认知,"Moolchandani强调。
他列举两大问题 :AI生成的安全代码可能无法抵御不断演变的攻击技术;可能无法反映组织的特定安全态势和需求。此外,AI生成代码可能造成安全假象,因为开发者(特别是经验不足者)常默认其安全性。
更存在违反许可条款或监管标准的合规风险 。"许多AI工具(特别是模板下载基于开源代码库生成代码的工具)可能无意间引入未经审查 、许可不当甚至恶意的代码,"OBrien指出。开源许可通常对署名 、再分发和修改有特定要求 ,依赖AI生成代码可能导致意外违规。
"这在网络安全工具开发中尤为危险 ,遵守开源许可不仅是法律义务,更影响安全态势 ,"OBrien补充道,"意外违反知识产权法或引发法律责任的风险巨大。"
Digital.ai首席技术官Wing To从技术角度指出 ,AI生成代码不应被视为万能方案:"AI生成代码的关键挑战在于人们误以为其质量优于人工编写代码 。实际上可能包含训练数据中埋藏的漏洞 、错误、受保护IP等质量问题 。"
人才评估范式转变既然生成式AI将长期存在,CISO及其组织必须重视其影响。新常态下,需要建立护栏机制以促进批判性思维、深化代码理解并强化各编码团队的问责制。
Moolchandani建议企业重新评估招聘过程中的技术技能考核方式:"代码测试可能不再足够——需要更关注安全推理 、架构设计和对抗思维。"DH2i在招聘中通过评估候选人对AI的依赖程度,衡量其独立思考和工作的能力。
纽约大学全球CIO Don Welch持相似观点:在新范式中取得成功的人将保持好奇心 、提出问题并努力理解周围世界。"要雇佣那些重视成长和学习的人,"他表示 。
部分网络安全领导者担忧,过度依赖AI可能加剧行业本已存在的人才短缺危机 。对中小型组织而言 ,寻找并培养技术人才将愈发困难。"如果下一代安全专业人员主要接受AI使用培训而非批判性思考安全挑战,行业可能难以培养推动创新和韧性的资深领导者,"Hasnis警告道。
AI不应取代编程知识Moolchandani指出 ,使用AI工具编写代码却未建立深厚技术基础的早期从业者面临发展停滞的高风险:"中长期看 ,这可能限制其向需要威胁建模、可利用性分析和安全工程专业知识的高级安全角色发展。企业很可能会区分用AI增强技能和依赖AI弥补基础缺陷的员工 。"
专家建议组织加强培训并调整知识传递方式 :"在职培训应更注重实践 ,聚焦真实漏洞、利用技术和安全编码原则,"Moolchandani强调。Mattson补充道 ,持续技能提升的文化能适应任何技术变革。
Hasnis认为培训应帮助员工理解AI的优势与局限 :"通过AI驱动效率与人工监督相结合 ,企业既能利用AI优势 ,又能确保安全团队保持专注 、专业和弹性 。"他建议开发者始终质疑AI输出,特别是在安全敏感环境中。
OBrien主张AI应与人类专业知识相辅相成 :"企业需建立将AI视为工具的文化——它能辅助但无法取代对编程及传统软件开发部署的深入理解。"
"企业绝不能陷入用AI掩盖专业知识不足的陷阱 。"
Tags:
转载:欢迎各位朋友分享到网络,但转载请说明文章出处“信息技术视野”。http://www.bziz.cn/news/840c499155.html
相关文章
2022年出现新的端点安全挑战
系统运维在2022年,安全从业者努力应对前两年快速推进远程工作和基于云的操作所带来的日益增长的攻击面。网络犯罪分子利用新的漏洞,包括第三方软件的日益使用带来的漏洞发动勒索软件和其他攻击。但凭借零信任、XDR和 ...
【系统运维】
阅读更多黑客来了!制造企业如何做好网络安全?
系统运维数字化革命正在将生产与业务流程结合起来,并将人工智能AI)、云计算和增强现实AR) 引入车间。通过在整个业务和供应链中收集实时数据, 企业可以更好地了解其运营情况,并分析和改进性能和维护。然而,这种更 ...
【系统运维】
阅读更多平均任期只有26个月,CISO该如何缓解工作压力?
系统运维近年来,首席信息安全官CISO)的工作变得越来越忙碌而繁杂:既要应对越来越多的新型安全威胁,还要和信息化部门保持沟通,帮助他们保持敏捷、加快开发速度、转向远程工作。此外,CISO要更加充分利用迅速减少 ...
【系统运维】
阅读更多
热门文章
最新文章
友情链接
- MotoZ信号表现如何?(探索MotoZ在各种信号环境下的表现和关键特性)
- 红米Note恢复出厂设置密码是什么
- 红米Mate4X带给你的全新体验(一部强大的智能手机,让你爱不释手)
- 相机CF卡芯片损坏解决方法(教你应对相机CF卡芯片损坏的情况,避免数据丢失)
- 红米Note4在知乎上的评价如何?(通过知乎用户的真实评价了解红米Note4的性能、使用体验及优缺点)
- 小米Note2(小米Note2在市场上受到广泛关注,销量持续飙升)
- 探索苹果7P10.33系统的卓越性能与特点(一探苹果7P10.33系统的强大功能和用户体验)
- 2021年显卡性价比排行榜(显卡巅峰战)
- 如何更换联想Ideapad720s键盘(简单、快速、有效,轻松替换您的键盘) 网站建设亿华云b2b信息平台香港物理机企业服务器源码库云服务器