'Opal' AI 에이전트 매뉴얼의 모든것

'Opal' AI 에이전트 매뉴얼의 모든것 

오늘은  유튜브 영상의 내용을 바탕으로 'Opal' AI 에이전트의 상세한 사용 방법을 정리하여 매뉴얼 형태로 블로그글을 작성해 드리겠습니다.

opal매뉴얼
Opal ai에이전트-킬러앱

'Opal' AI 에이전트 바로가기

이 매뉴얼은 유튜브 영상 (https://www.youtube.com/watch?v=GzGcQzMo_Rw)에 소개된 Google의 'Opal' AI 에이전트의 주요 기능과 사용법을 요약한 것입니다. 'Opal'은 구글의 새로운 바이브 코딩앱입니다. 복잡한 코딩 없이도 AI 에이전트를 시각화된 워크플로우로 쉽게 만들고 커스터마이징할 수 있는 도구입니다.


1단계: 시작하기 및 기본 구성 요소

  • 접근 방법: 현재는 미국 계정이 필요하며, VPN 서비스를 통해 접속해야 합니다. Google 계정으로 가입하면 사전 제작된 다양한 프리셋(예: 블로그 작성, 게임 웹페이지 생성, 유튜브 요약 등)을 사용할 수 있습니다.

  • 핵심 기능: 복잡한 코드가 아닌, 다이어그램 형태의 시각적 워크플로우를 통해 앱을 구성할 수 있습니다. 각 기능은 '모듈'로 불리며, 이를 연결하여 원하는 작업을 자동화합니다.

  • 비디오 마케터를 선택해보겠습니다.

    비디오 마케터

  • 이앱의 구성은 다음과 같습니다.
    오팔의 워크플로우
    Opal의 장점은 이렇게 다이어그램으로 워크플로우를 시각화하고 있습니다.

워크플로우 시각화하고 있음

2단계: 워크플로우 생성 및 커스터마이징

  • 모듈 연결: 점을 잡고 끌어서 모듈들을 연결하여 작업의 흐름(워크플로우)을 만듭니다. 예를 들어, '리서치' 모듈의 결과물을 '마케팅 문구 생성' 모듈로 전달하는 방식으로 연결할 수 있습니다.

    모듈별로 연결 앱서비스를 만듬

  • 모듈별 세부 설정: 각 모듈을 클릭하면 세부 설정 창이 나타납니다.

    • 모델 선택: 원하는 AI 모델(예: Gemini 2.5 Flash, Deep Research 등)을 선택하여 작업의 성능을 조정할 수 있습니다.

    • 프롬프트 커스터마이징: 각 모듈에 구체적인 지시사항을 담은 프롬프트를 입력하여 원하는 결과물이 나오도록 커스터마이징합니다. 예를 들어, "당신은 카피라이터다"와 같은 역할을 부여하거나, "월택남이 추천하는"과 같은 특정 문구를 포함시키도록 지시할 수 있습니다.
월텍남:이미지

3단계: 입력 및 출력 설정

  • 사용자 입력(User Input) 모듈: 앱의 시작점에서 사용자로부터 제품명, 이미지, 텍스트 등 다양한 정보를 입력받도록 설정할 수 있습니다. '골뱅이(@)'를 입력하면 사용 가능한 입력 옵션 목록이 나타납니다.

  • 출력(Output) 모듈: 워크플로우의 최종 결과물을 설정합니다. 이미지, 비디오, 텍스트(예: DOCS 파일) 등 다양한 형식으로 (선택하여) 출력할 수 있습니다.

4단계: 앱 실행 및 결과 확인

  • 프리뷰(Preview) 기능: '프리뷰' 버튼을 눌러 앱이 어떻게 작동하는지 미리 볼 수 있습니다. 각 모듈이 작동하는 과정을 시각적으로 확인할 수 있습니다.

  • 콘솔(Console) 확인: 앱을 실행하면 '콘솔' 창에서 각 단계가 어떻게 진행되었는지 상세한 로그를 확인할 수 있습니다. 어떤 데이터를 입력받아 어떤 결과물이 나왔는지 흐름을 파악할 수 있습니다.


'Opal ai agent'의 고급 기능

  • 리믹스(Remix): 이미 만들어진 프리셋을 가져와 사용자의 필요에 맞게 워크플로우를 수정하거나 새로운 기능을 추가할 수 있습니다.

  • 텍스트-투-앱(Text-to-App): 직접 워크플로우를 만들지 않아도, 원하는 앱의 기능과 흐름을 자세히 텍스트로 설명하면 'Opal'이 자동으로 복잡한 워크플로우를 생성해 줍니다. 예를 들어, "물건을 팔고 싶어. 자세한 시장 조사 계획 및 판매 전략을 딥 리서치로 만들고 결과물 Docs형식으로 출력해 줘"와 같이 입력하는 방식입니다. 즉, 프롬프트를 주면 결과를 만들어주는....미친 성능!!


문제점::

Gemini 모델을 기반으로 한다면, 환각 발생 수준도 기존 모델과 유사할 것 같기는 한데.. 원래라면 딥리서치 결과를 사람이 검토한 뒤 다음 단계(이미지·영상 생성)로 넘어가는 과정에서 잘못된 정보를 걸러낼 수 있었을텐데 이부분도 문제인 듯 합니다. 이번 방식은 그런 검증 절차가 없다보니 초기에는 작은 환각이었던 것이 최종 결과물에서는 큰 오류로 확대될 가능성도 있습니다.

환각hallucination이 생겨서 결과가 이상해지면 전체 시나리오를 다시 돌려야하고, 이때 token사용량이 어느정도까지 될지도 문제인듯합니다.

처음으로
 
이전최근

댓글 쓰기