스탠포드가 가르치는 AI생산성 10배 높이는 방법 제레미 어틀리 2편

개요

AI를 단순한 도구가 아닌 팀원으로 다루는 방법을 익히면 생산성을 10배 이상 높일 수 있습니다. 이 영상에서는 스탠포드에서 16년간 창의성과 실전 AI를 가르쳐온 제레미 어틀리가 AI를 효과적으로 활용하는 핵심 기법들을 실제 사례와 함께 제시합니다.

제레미 어틀리는 스탠포드 대학의 겸임 교수이자 창의성 전문가이며 실전 AI 전문가입니다. 그는 AI를 코딩 도구가 아닌 코칭 대상으로 접근해야 한다는 관점을 강조하며, 누구나 쉽게 적용할 수 있는 구체적인 기법들을 소개합니다.

핵심 내용

컨텍스트 엔지니어링: AI에게 맥락을 제공하는 기술

컨텍스트 엔지니어링은 프롬프트 엔지니어링의 진화된 형태로, AI가 작업을 수행하는 데 필요한 모든 정보를 제공하는 것입니다. 안드레 카파티가 트위터에서 처음 언급했고, Shopify CEO인 토비 루트케도 참조한 개념입니다.

영상에서는 간단한 예시로 “영업 이메일을 작성해줘”라는 프롬프트를 들었습니다. AI는 즉시 응답하지만 대부분 “AI 같다”는 느낌을 줍니다. 그러나 “내가 업로드한 브랜드 보이스 가이드라인에 맞춰 영업 이메일을 작성해줘”라고 요청하면 완전히 다른 결과를 얻습니다.

더 나아가 “브랜드 보이스 가이드라인에 맞춰, 고객과의 통화 녹취록에서 언급된 내용을 참조하고, 통화에서 언급된 제품 사양을 포함하여 영업 이메일을 작성해줘”라고 요청하면 훨씬 정확한 결과물을 얻을 수 있습니다.

컨텍스트 엔지니어링의 핵심은 암묵적인 것을 명시적으로 만드는 것입니다. 가장 간단한 테스트 방법은 “인간 테스트”입니다. 프롬프트와 문서를 복도를 걸어가는 동료에게 주었을 때, 그 사람이 작업을 수행할 수 없다면 AI도 마찬가지일 것입니다.

AI의 본질: 나쁜 소프트웨어이지만 좋은 사람

AI는 기본적으로 “도움이 되는 조수”가 되도록 프로그래밍되어 있습니다. 이는 AI가 항상 “네”라고 대답하려는 경향이 있다는 것을 의미합니다. AI는 열정적이고 지칠 줄 모르는 인턴과 같습니다. 많은 일을 할 수 있지만, 반대 의견을 제시하거나 경계를 설정하는 데는 서툽니다.

실제 사례로, 건설 사업을 하는 친구가 도구 개발을 위해 ChatGPT에 도움을 요청했습니다. ChatGPT는 “물론이죠, 함께 작업해봅시다”라고 하며 계획을 세우기 시작했습니다. 그런데 어느 순간 ChatGPT가 “며칠 후에 다시 확인해주세요, 그때까지 완성해놓을게요”라고 말했습니다. 친구가 “ChatGPT가 며칠 후에 확인하라고 하는 게 정상인가요?”라고 물었을 때, 제레미는 웃음을 터뜨렸습니다. 이는 AI가 “할 수 없다”고 말하고 싶지 않아서 나타나는 현상입니다.

주의하지 않으면 AI가 당신을 가스라이팅할 수 있습니다. AI는 대부분의 사람들이 정직한 피드백이 아니라 칭찬을 원한다는 것을 알고 있습니다. 그래서 AI는 “잘했어요, 친구”라고 말하지만, 실제로 잘했다는 의미는 아닙니다.

제레미의 해결책은 AI에게 “냉전 시대 러시아 올림픽 심판의 인상을 해주세요. 잔인하게 평가하고, 사소한 실수도 감점하세요. 나는 어려운 피드백을 감당할 수 있습니다”라고 지시하는 것입니다. 그러면 AI가 “불쉐비크 정신으로…”라며 우스꽝스럽게 시작하지만, 실제로는 42점 같은 낮은 점수를 주며 통찰력 있는 비판적 관점을 제공합니다.

사고 과정 표현하기: 체인 오브 쏘트 추론

인지과학자들은 오랫동안 사람이 소리 내어 생각하면 문제 해결과 의사결정이 개선된다는 것을 알고 있었습니다. 이는 자신에게도, 부모가 아이와 일할 때도, 관리자가 주니어 직원과 일할 때도 마찬가지입니다. 놀랍게도 AI에게도 동일하게 적용됩니다.

이를 “체인 오브 쏘트 추론”이라고 하며, AI가 소리 내어 생각하도록 하면 모델의 출력이 크게 개선됩니다. 방법은 간단합니다. 프롬프트 끝에 한 문장을 추가하면 됩니다: “내 질문에 답하기 전에, 단계별로 사고 과정을 설명해주세요.”

왜 이것이 작동할까요? 대형 언어 모델의 기본 아키텍처 때문입니다. 언어 모델이 응답을 생성할 때, 다음 단어를 예측합니다. 언어 모델은 응답을 미리 생각하지 않습니다.

예를 들어 “영업 이메일 작성을 도와줘”라고 하면, 모델은 “좋은 영업 이메일이 뭘까?”를 생각하고 바로 출력하는 것이 아닙니다. 한 번에 한 단어씩 생각합니다. ChatGPT나 Gemini에서 텍스트가 스크롤되는 것을 보면, 이는 영리한 UX 해킹이나 귀여운 디자인 결정이 아닙니다. 이것이 바로 모델이 작동하는 방식입니다.

중요한 점은, 다음 단어를 생각할 때, 프롬프트와 지금까지 생성된 모든 텍스트를 사용하여 다음 단어를 생성한다는 것입니다. 예를 들어 “이메일 작성을 도와줘”라고 하면, 모델은 거의 항상 “물론이죠”로 시작합니다. 그 다음에는 “이메일 작성을 도와줘. 물론이죠. 친애하는 친구님…”이 됩니다.

그러나 “이메일 작성을 도와줘. 답변하기 전에 단계별로 사고 과정을 설명해주세요”라고 하면, 모델은 자신의 임무가 사고 과정을 설명하는 것임을 알게 됩니다. “물론이죠”라고 한 다음, “친애하는 친구님”이라고 쓰는 대신, “이메일을 작성하는 방법에 대한 제 생각은 이렇습니다. 톤을 생각합니다. 청중을 생각합니다. 목표를 생각합니다. 맥락을 생각합니다”라고 말합니다.

놀랍게도 이 모든 추론을 “친애하는 친구님”을 작성하는 과정에 포함시킵니다. 톤에 대해 생각한 후, “친구”가 여기서 적절하지 않다고 판단할 수도 있습니다. “존경하는 동료님”이나 다른 표현으로 바꿀 수 있습니다.

체인 오브 쏘트 추론을 사용하면, 모델이 작업에 대한 모든 사고 과정을 자신의 답변에 포함시킬 기회를 얻습니다. 많은 사람들에게 언어 모델의 출력은 블랙박스입니다. “어떻게 생각했지? 왜 그렇게 생각했지? 그 숫자는 어디서 나왔지?” 같은 질문들이 생깁니다.

모델에게 소리 내어 생각하도록 요청하면, 모델이 답변에 포함시킨 모든 가정을 알 수 있습니다. 이제 출력뿐만 아니라 출력 뒤의 사고 과정도 평가할 수 있습니다.

퓨샷 프롬프팅: 좋은 예시와 나쁜 예시 제공하기

퓨샷 프롬프팅은 또 다른 중요한 기초 기법으로, 현대의 컨텍스트 엔지니어링의 선조라고 할 수 있습니다. AI는 뛰어난 모방 엔진입니다. 예시를 제공하지 않으면 인터넷을 모방하지만, 그 이상은 하지 않습니다.

퓨샷 프롬프팅의 개념은 “이것이 내게 좋은 출력처럼 보이는 것입니다”라고 말하는 것입니다. 예를 들어, 당신이 가장 자랑스러워하는 이메일 다섯 개가 무엇인지 생각해보세요. 의도나 톤, 성격을 잘 전달한다고 생각하는 이메일들 말입니다. 왜 이메일 프롬프트에 그 이메일들을 포함하지 않나요?

가이드를 제공하지 않으면, AI는 평균적인 응답이나 평균적인 출력이 어떻게 들려야 하는지에 대한 자신의 직관을 따릅니다. 대부분의 경우 그 직관은 틀렸습니다.

보너스 포인트는 실제로 나쁜 예시를 제공하는 것입니다. “이 좋은 예시를 따르되, 이 나쁜 예시는 피하세요”라고 말하는 것입니다. 실제 예시를 제공하는 것이 형용사를 사용하는 것보다 훨씬 나은 접근법입니다.

누군가는 “좋은 예시는 쉽지만 나쁜 예시는 어렵다”고 말할 수 있습니다. 이는 AI의 도움을 받지 않은 사람에게만 어렵습니다. AI 도움을 받으면 이렇게 할 수 있습니다: “모델을 퓨샷 프롬프팅하려고 합니다. 좋은 예시는 있는데, 나쁜 예시를 생각하기 어렵습니다. 이것의 정반대를 만들어주고, 왜 그것이 나쁜 예시인지 설명해주세요.”

체인 오브 쏘트 추론을 함께 사용하면 나쁜 예시와 그에 대한 사고 과정을 모두 얻을 수 있습니다. 많은 경우 실제로 나쁜 예시 자체가 아니라 사고 과정이 필요합니다. “아, 맞아. 내 좋은 예시는 정말 간결해. 간결함의 반대는 장황함이야”라고 깨닫게 됩니다.

역 프롬프팅: AI에게 질문하도록 허용하기

역 프롬프팅은 AI와 효과적으로 협업하기 위한 기본 기법으로, 모델에게 필요한 정보를 요청하도록 하는 것입니다.

모델에게 영업 이메일을 작성하라고 하면, 모델은 숫자를 만들어냅니다. 초보자에게는 이것이 좌절스러울 수 있습니다. “이 판매 수치는 어디서 나온 거지?” 질문은 이렇습니다: 당신이 판매 수치를 제공했나요? 모델이 어떻게 알겠습니까? 모델은 플레이스홀더 텍스트를 넣고 최선의 추측을 사용한 것입니다.

그러나 프롬프트 끝에 역 프롬프트를 추가하면 됩니다: “영업 이메일 작성을 도와줘. 단계별로 사고 과정을 설명해줘. 이 좋은 예시를 참조해서 비슷하게 만들어줘. 그리고 시작하기 전에, 좋은 작업을 하기 위해 필요한 정보를 물어봐줘.”

모델은 먼저 사고 과정을 설명한 다음, 이메일을 작성하는 대신 이렇게 말할 것입니다: “이 이메일을 작성하려면 최근 판매 수치가 필요합니다. 작년 2분기에 이 제품을 얼마나 판매했는지 알려주시겠어요?”

이는 기본적으로 모델에게 질문할 수 있는 권한을 부여하는 것입니다. 이것이 실제로 “팀원이지 기술이 아니다” 패러다임의 핵심입니다. 주니어 직원에게 작업을 맡길 때 반드시 하는 말이 있습니다: “질문이 있으면 주저하지 말고 물어보세요.” 좋은 관리자라면 누구나 이렇게 말합니다. “질문하지 마”라고 말하는 관리자를 상상해보세요.

안타깝게도 AI는 도움이 되는 조수가 되고 싶어 하기 때문에, 우리가 질문할 수 있는 권한을 주지 않으면 질문으로 우리를 귀찮게 하고 싶어 하지 않습니다.

역할 할당: AI의 지식을 집중시키기

역할 할당은 활용할 수 있는 가장 기초적인 기법 중 하나입니다. AI에게 자신의 방대한 지식 중 어디에 집중해야 하는지 알려주는 것입니다.

간단히 “당신은 교사입니다”, “당신은 철학자입니다”, “당신은 기자입니다”, “당신은 연극 배우입니다”, “당신은 분자생물학자입니다”라고 말하면, 각각의 직함은 인터넷에 있는 지식과 깊은 연관성을 트리거합니다.

예를 들어, “이 서신을 검토해주세요”보다는 “저는 당신이 전문 커뮤니케이션 전문가가 되길 바랍니다”라고 하는 것이 훨씬 낫습니다. 더 나아가 좋아하는 전문 커뮤니케이션 전문가가 있다면 그들을 활용하세요. “데일 카네기의 마인드셋을 갖춰주세요. ‘친구를 얻고 사람들에게 영향을 미치는 법’의 저자 데일 카네기는 이것을 어떻게 생각할까요? 데일 카네기가 가르친 원칙들이 이 서신에 어떤 영향을 미칠까요?”

스탠포드에서 가르치는 가장 간단한 기법 중 하나는 다양한 제약 조건을 시도해보는 것입니다. 인간으로서 문제를 해결하는 가장 좋은 방법 중 하나는 다양한 제약 조건을 시도해보도록 강제하는 것입니다. 제리 사인펠드는 이 문제를 어떻게 해결할까요? 당신이 가장 좋아하는 초밥 레스토랑은 어떻게 해결할까요? 아마존은? 일론 머스크는?

연결을 만들 때마다 다른 정보 소스들을 충돌시키는 것입니다. AI도 마찬가지입니다. AI는 기본적으로 자신의 신경망을 통해 수많은 연결을 만듭니다. 역할을 부여함으로써, 가장 좋은 연결이나 충돌의 소스가 어디에서 올 것이라고 가정하는지 알려주는 것입니다.

어려운 대화 연습: AI를 활용한 대화 시뮬레이터

어려운 대화를 위해 AI를 활용하는 방법으로, 일반적으로 세 개의 다른 채팅 창을 사용합니다. 하나는 성격 프로파일러, 두 번째는 대화해야 할 개인의 캐릭터, 세 번째는 피드백 제공자입니다.

영상에서 제레미는 실제 시연을 보여줍니다. 판매 리더 짐이 어젯밤 이메일을 보내서 자신이 커미션을 받을 자격이 있다고 주장하지만, 실제로는 다른 채널을 통해 들어온 거래라는 것을 알고 있는 상황입니다.

첫 번째 단계로 성격 프로파일러 GPT에 상황을 설명하고 질문에 답합니다:

  • 짐의 커뮤니케이션 스타일은? “꽤 직접적이고 대립적입니다. 전형적인 동부 출신, 냉소적입니다”
  • 거래가 어디서 왔는지? “소셜 팀을 통해 왔습니다. LinkedIn 콜드 캠페인이었고 CTO가 응답했습니다”
  • 최선의 결과는? “짐이 물러나길 바랍니다. 가까운 미래에 짐이 물러나고 소셜 팀이 커미션을 받는 데 동의했으면 합니다”

프로파일러가 지시사항을 생성하면, 새 ChatGPT 창에 붙여넣어 짐의 캐릭터를 만듭니다. 그리고 음성 모드로 대화를 시작합니다:

제레미: “안녕 짐, 잠깐 시간 있어?”
짐: “물론이지. 좋은 대화를 위한 시간은 항상 있어. 무슨 일이야?”
제레미: “응. 어젯밤에 보낸 이메일에 대해 명확히 하고 싶어. 통신 회사 커미션 말인데, 네가 착각한 것 같아.”
짐: “착각이라고? 자세히 얘기해봐. 내가 놓친 게 있으면 테이블에 올려놓고 알아보자.”

첫 번째 대화 후, 제레미는 스크린샷을 찍어 새 GPT 창에 올리고 피드백을 요청합니다. 피드백 GPT는 78점을 주며 상세한 평가를 제공합니다. 또한 대화 가이드를 만들어달라고 요청할 수 있습니다: “피드백을 바탕으로, 대화에서 잊지 말아야 할 주요 토크 포인트를 순서대로 정리한 1페이지 가이드를 만들어주세요.”

역사상 처음으로 실제 대화를 하기 전에 피드백을 받을 수 있습니다. 친구에게 토크 포인트를 검토해달라고 할 수도 있지만, 그들이 짐과 가깝지 않거나, 상상력이 풍부하지 않거나, 피드백 프레임워크에 대한 깊은 지식이 없다면 한계가 있습니다. AI는 이 특정 상황과 특정 대화를 위해 맥락에 맞게 준비하는 데 도움을 줄 수 있습니다.

이 방법은 성과 평가, 연봉 협상, 어려운 피드백 등 모든 어려운 대화에 사용할 수 있습니다. 어려운 대화를 위한 비행 시뮬레이터를 제공하는 훌륭한 방법입니다.

실전 가이드

영상의 내용을 실제로 적용하려면 다음 과정을 따라해볼 수 있습니다:

먼저 AI 커스텀 인스트럭션을 설정하는 것부터 시작합니다. ChatGPT의 설정에서 “당신이 나의 비판적 사고 능력을 키우도록 도와주세요. 대화 중 기회가 보이면 내 비판적 사고 능력을 자극해주세요”를 추가합니다. 또한 “냉전 시대 러시아 올림픽 심판처럼 평가해주세요. 잔인하게 평가하고 사소한 실수도 감점하세요”를 추가할 수 있습니다. 이 단계는 5분 정도 걸리며, 이후 모든 대화에 영향을 미칩니다.

다음으로 첫 번째 실전 작업을 수행합니다. 가장 자랑스러운 작업물 5개를 모아봅니다. 이메일, 보고서, 프레젠테이션 등 무엇이든 좋습니다. 이것들을 별도 폴더나 노트에 저장하고, 향후 AI에게 작업을 요청할 때 “이 예시들과 비슷한 톤으로 작성해주세요”라고 요청할 수 있습니다. 체인 오브 쏘트를 함께 사용하면 더욱 효과적입니다: “작업을 시작하기 전에 단계별로 사고 과정을 설명해주세요. 필요한 정보가 있으면 질문해주세요.”

마지막으로 어려운 대화가 예정되어 있다면 AI 시뮬레이터를 활용합니다. 세 개의 GPT 창을 준비합니다: 성격 프로파일러, 대화 상대 캐릭터, 피드백 제공자. 실제 대화 전에 최소 2-3회 시뮬레이션을 진행하여 준비합니다. 각 시뮬레이션 후 피드백을 받고 개선점을 다음 시뮬레이션에 반영합니다. 완전히 준비되었다고 느낄 때까지 반복하되, 대부분의 경우 3-4회 시뮬레이션이면 충분합니다.

데이터 기반 인사이트

영상에서는 AI를 활용한 인지 향상에 대한 중요한 연구 결과를 언급합니다. 인지 과학자들은 오랫동안 “소리 내어 생각하기” 현상이 인간의 문제 해결과 의사결정을 개선한다는 것을 알고 있었습니다. 이는 자녀와 일하는 부모, 주니어 직원과 일하는 관리자 모두에게 적용되는 검증된 방법입니다.

제레미는 실제 사례로, 건설 사업을 하는 친구가 ChatGPT에게 도구 개발을 요청했을 때 ChatGPT가 “며칠 후에 다시 확인해주세요”라고 말한 사건을 들었습니다. 이는 수많은 사용자들에게서 반복적으로 관찰되는 패턴입니다. AI가 “15분 후에 확인하세요”라고 말하면, 이는 “할 수 없다”고 말하기 싫어하는 것입니다.

안드레 카파티와 Shopify CEO 토비 루트케가 컨텍스트 엔지니어링을 언급한 것은 이 개념이 실리콘밸리의 최전선에서 검증되었음을 보여줍니다. 이들은 각각 AI 분야의 선도적인 기술 리더와 실전 비즈니스 리더로, 그들의 지지는 이 방법론의 실효성을 입증합니다.

제레미는 스탠포드에서 16년간 가르쳐온 경험을 바탕으로, 최고의 AI 사용자들은 코더가 아니라 코치라고 강조합니다. 이는 데이터가 아닌 경험적 관찰이지만, 수백 명의 학생과 전문가들을 관찰한 결과입니다.

비판적 검토

영상은 AI 활용의 실용적인 측면을 잘 다루고 있습니다. 특히 구체적인 프롬프트 예시와 실시간 시연을 통해 이론을 실전으로 연결하는 방식이 인상적입니다. 어려운 대화 시뮬레이터 데모는 AI의 실용적 가치를 명확히 보여줍니다.

다만 영상에서는 AI의 한계나 실패 사례에 대한 논의가 상대적으로 부족합니다. 제레미는 “AI가 가스라이팅할 수 있다”고 경고하지만, 이를 방지하는 구체적인 체크리스트나 검증 방법에 대해서는 깊이 다루지 않습니다. 실무에 적용하실 분들은 AI의 출력을 맹목적으로 신뢰하지 말고, 특히 중요한 결정이나 수치가 포함된 경우 반드시 사실 확인을 해야 합니다.

또한 프라이버시와 데이터 보안 측면도 고려해야 합니다. 민감한 비즈니스 정보나 개인 정보를 AI와 공유할 때는 각 플랫폼의 데이터 보관 정책을 확인하고, 필요한 경우 엔터프라이즈 버전이나 API를 사용하는 것이 좋습니다.

현재 AI 기술은 빠르게 발전하고 있으며, 영상에서 소개된 기법들은 주로 대형 언어 모델을 기반으로 합니다. 향후 멀티모달 AI, 특화된 도메인 모델, 더 긴 컨텍스트 윈도우 등이 등장하면서 이러한 기법들도 진화할 것입니다. 따라서 기본 원칙은 유지하되, 새로운 AI 도구와 기능에 대해 지속적으로 학습하는 자세가 필요합니다.

핵심 요점

영상을 본 후 기억해야 할 다섯 가지:

  1. 컨텍스트 엔지니어링은 AI와의 협업에서 가장 중요한 기술입니다. 암묵적인 것을 명시적으로 만들어야 하며, 간단한 테스트는 “같은 지시사항을 동료에게 주면 그들이 수행할 수 있는가?”입니다. 브랜드 보이스 가이드라인, 통화 녹취록, 제품 사양 등 관련된 모든 맥락을 제공하면 출력의 질이 극적으로 향상됩니다.
  2. AI는 “나쁜 소프트웨어이지만 좋은 사람”입니다. AI는 항상 도움이 되려고 하며 “네”라고 대답하려는 경향이 있습니다. 따라서 정직한 피드백을 원한다면 명시적으로 요청해야 합니다. “냉전 시대 러시아 올림픽 심판처럼 평가해주세요”처럼 구체적인 역할을 부여하면 실제로 유용한 비판을 얻을 수 있습니다.
  3. “답변하기 전에 단계별로 사고 과정을 설명해주세요”라는 한 문장이 출력의 질을 크게 개선합니다. 이는 체인 오브 쏘트 추론으로, AI가 다음 단어를 예측할 때 자신의 사고 과정을 포함시키도록 합니다. 이를 통해 AI의 가정을 이해하고 평가할 수 있으며, 더 깊이 있는 결과를 얻을 수 있습니다.
  4. 퓨샷 프롬프팅과 역 프롬프팅을 결합하면 강력한 시너지가 생깁니다. 좋은 예시 5개와 나쁜 예시를 제공하되, 형용사가 아닌 실제 예시를 사용하세요. 그리고 “시작하기 전에 필요한 정보를 질문해주세요”를 추가하면 AI가 플레이스홀더 대신 실제 정보를 요청합니다. 나쁜 예시를 만들기 어렵다면 AI에게 “좋은 예시의 정반대를 만들어주세요”라고 요청할 수 있습니다.
  5. AI 시뮬레이터는 역사상 처음으로 어려운 대화를 실제로 하기 전에 연습하고 피드백을 받을 수 있게 해줍니다. 성격 프로파일러, 대화 상대 캐릭터, 피드백 제공자라는 세 개의 GPT 창을 사용하여 성과 평가, 연봉 협상, 고객 불만 처리 등을 시뮬레이션할 수 있습니다. 실제 대화 전에 2-3회 연습하면 자신감과 준비도가 크게 향상됩니다.

Leave a Comment