바이브 코딩과 에이전트 엔지니어링, 생각보다 빨리 섞이고 있음
사이먼 윌리슨이 바이브 코딩과 에이전트 엔지니어링의 경계가 흐려지고 있다고 짚었다. 문제는 코딩 에이전트가 꽤 안정적으로 일을 해내기 시작하면서, 프로덕션 코드도 매 줄 리뷰하지 않는 상황이 생긴다는 점이다.
- 1
바이브 코딩은 코드 품질을 직접 보지 않는 방식이고, 개인용 도구에는 괜찮지만 타인이 쓰는 소프트웨어에는 위험하다는 주장
- 2
에이전트 엔지니어링은 숙련된 개발자가 보안, 유지보수성, 운영, 성능을 고려하며 도구를 쓰는 방식
- 3
코딩 에이전트가 단순한 작업을 반복적으로 잘 처리하면서, 개발자가 이를 반쯤 블랙박스처럼 대하기 시작했다는 문제의식
핵심은 ‘AI가 코드를 짜도 되냐’가 아니라 ‘어디까지 검증하면 프로답다고 볼 수 있냐’에 가까움. 팀이 만든 내부 서비스를 믿고 쓰듯 에이전트 결과물도 믿기 시작했는데, 에이전트는 책임질 수 없다는 게 찝찝한 지점임.
관련 기사
앤트로픽, 스페이스X 컴퓨트 계약으로 클로드 사용 한도 확 올림
앤트로픽이 스페이스X와 컴퓨트 파트너십을 맺고 Claude Code와 Claude API 사용 한도를 올렸다. 이번 계약으로 Colossus 1 데이터센터의 300메가와트 이상 용량과 엔비디아 그래픽처리장치 22만 개 이상을 확보하게 된다.
직장에서 AI로 ‘일하는 척’이 쉬워졌다는 불편한 얘기
이 글은 생성형 AI가 생산성을 올리는 도구인 동시에, 전문성 없는 사람이 전문적인 산출물을 흉내 내게 만드는 도구가 됐다고 비판해. 특히 문제는 초보자가 더 빨라지는 수준이 아니라, 아예 훈련받지 않은 분야의 결과물을 그럴듯하게 만들어 조직 안에서 검증 없이 굴러가게 만드는 데 있다고 짚어.
AI 상담에 마음을 맡기는 사람들, 편하긴 한데 진짜 괜찮을까
AI 챗봇을 상담사처럼 쓰는 사람들이 늘고 있지만, 전문가들은 정서적 의존과 판단 외주화가 보이지 않는 위험을 만든다고 본다. 실제 실험에서는 AI가 즉각적인 위로와 명확한 답을 주는 데 강했지만, 인간 상담사는 질문을 통해 내담자가 자기 맥락을 더 깊게 보게 만들었다.
국내 의료 AI, 학회장에서 ‘실제 임상 데이터’로 존재감 키웠다
국내 의료 AI 기업들이 학회 시즌을 맞아 중환자 예측, 심전도 분석, 치매 치료제 부작용 모니터링 등 실제 임상 적용 사례를 공개했다. 핵심은 기술 데모가 아니라 병원 EMR 데이터와 임상 근거를 바탕으로 의료진 업무 부담과 환자 안전 문제를 해결한다는 점이다.
미국 기술업계 해고 40% 증가, AI가 화이트칼라 조직을 다시 짜고 있다
월스트리트저널은 AI 확산이 미국 기술업계의 구조조정을 가속하고 있다고 보도했다. 미국 전체 해고는 전년 대비 줄었지만, 기술 분야 해고는 1분기에 40% 늘었고 기업들은 중간관리와 반복 업무를 줄이는 방향으로 움직이고 있다.
댓글
댓글
댓글을 불러오는 중...