2025년 4월 20일 일요일

블로그 → 릴스 영상 자동 생성기

블로그 → 릴스 영상 자동 생성기

블로그 → 릴스 영상 자동 생성기

자막 프리뷰:

2025년 4월 19일 토요일

네이버 부동산 매물 데이터를 자동으로 수집하고 분석하는 법

🏘️ 네이버 부동산 매물 데이터를 자동으로 수집하고 분석하는 법

1. General – 왜 매물 데이터를 자동으로 수집해야 할까?

부동산 시장은 빠르게 변화합니다.
특히 인기 지역의 매물은 순식간에 등록되고, 사라지기도 하죠.
이런 흐름을 놓치지 않기 위해서는 실시간 데이터 수집이 필수입니다.
수작업이 아닌 자동화된 방식으로 데이터를 수집하고, 분석하고, 투자에 활용할 수 있다면 부동산 재테크의 경쟁력이 올라갈 수밖에 없습니다.

📌 목표: 매일 아침, 내가 원하는 지역의 매물 데이터를 자동 수집해 투자 의사결정에 활용!


2. Insight – 네이버 부동산은 API처럼 동작한다?!

많은 분들이 “크롤링”이라고 하면 HTML 파싱부터 생각하지만, 요즘 부동산 사이트들은 대부분 데이터를 비동기적으로 JSON 형태로 주고받습니다.
즉, 네이버 부동산도 내부적으로 API처럼 작동하는 구조입니다.

핵심 포인트는 다음과 같습니다:

  • 콘솔(Network) 탭 → XHR → 요청 URL 확인

  • 응답 데이터는 JSON 형식 (예: 매물명, 평수, 가격, 매물번호 등)

  • 페이지 정보를 담은 page 파라미터가 URL에 존재 → 반복 요청 가능

이렇게 해서 curl 요청을 복사하고, 파이썬으로 변환한 후, requests 라이브러리를 사용해 데이터를 가져올 수 있습니다.

💡 네이버 부동산도 결국 데이터를 내려주는 API가 있다는 것. 이것만 알아도 절반은 성공입니다.


3. Specific – 실전 코드로 확인하는 매물 수집 자동화 프로그램

🐍 Python 코드: 페이지별 매물 수집 후 CSV 저장

python-
import requests import csv headers = { "User-Agent": "Mozilla/5.0", "Content-Type": "application/json" } with open("naver_real_estate.csv", "w", newline="", encoding="utf-8") as f: writer = csv.writer(f) writer.writerow(["매물명", "전용면적", "가격", "등록일"]) for page in range(1, 11): # 1~10페이지 수집 url = f"https://example-api-url.com?page={page}&type=APT&dealType=A1" response = requests.get(url, headers=headers) data = response.json() for item in data['result']['list']: writer.writerow([ item['atclNm'], item['spc1'], item['prc'], item['atclCfmYmd'] ])

🖥️ GUI or 웹페이지로 시각화 (Streamlit 사용)

python-
import streamlit as st import pandas as pd df = pd.read_csv("naver_real_estate.csv") st.title("헬리오시티 부동산 시세 모니터링") st.dataframe(df) if st.button("급매만 보기"): 급매_df = df[df['가격'].astype(str).str.contains("억") & (df['가격'].str.replace("억", "").astype(float) < 10)] st.dataframe(급매_df)

🔁 매일 아침 자동으로 실행하려면 윈도우 작업 스케줄러 / 리눅스 크론탭을 활용!


📷 이미지 삽입 제안

  • 콘솔창에서 XHR 요청 캡처 화면

  • JSON 응답 예시 (with 강조 표시)

  • 실행된 Streamlit 웹 페이지 스크린샷


✅ 마무리 – 부동산 재테크도 데이터 기반으로!

부동산 투자는 감도 중요하지만, 데이터 기반의 추세 분석이 점점 더 중요해지고 있습니다.
이처럼 네이버 부동산의 매물 데이터를 자동 수집하고 시각화하는 시스템을 구축해두면,
단순 관망이 아니라 전략적인 투자 판단을 내릴 수 있습니다. 데이터가 돈이다. 예전이나 지금이나!!

💪 오늘 한 번만 고생하면, 내일부터는 데이터가 자동으로 나를 찾아옵니다.

처음으로 
 

2025년 4월 14일 월요일

효율적인 AI 콘텐츠 제작 워크플로우: 퍼플렉시티, 감마 AI, 그리고 블로그 자동화 전략

효율적인 AI 콘텐츠 제작 워크플로우: 퍼플렉시티, 감마 AI, 그리고 블로그 자동화 전략

소개

현대의 콘텐츠 제작은 더 이상 수동적인 과정이 아닙니다. AI 도구들을 활용하면 놀라울 정도로 효율적이고 체계적인 콘텐츠 생성이 가능해졌습니다. 이 글에서는 제목 생성부터 게시까지의 전체 워크플로우를 단계별로 살펴보겠습니다.

워크플로우 단계별 분석

1. 황금 키워드 추출

  • 첫 번째 단계는 트렌디하고 흥미로운 키워드 추출입니다.
  • 키워드 선택 시 '광범위한 주제가 아닌 구체적이고 디테일한 키워드에 집중'해야 합니다.
  • 예: "삼성전자 300만 원 배당금", "강남부동산 10년 만에 신용등급 700점"

2. 퍼플렉시티 AI를 활용한 콘텐츠 리서치

  • 선택된 키워드를 기반으로 퍼플렉시티 AI로 상세 콘텐츠 리서치
  • 1500자 이상의 데이터 수집
  • 현재와 가장 가까운 기사와 문서 활용
  • 정확한 숫자와 데이터 입력에 중점

3. 블로그 스타일 코드 생성

  • 벚꽃 스타일 코드 생성기를 사용하여 수집된 콘텐츠를 구조화
  • 제목, 부제목, 본문, 결론 등 체계적인 구조 생성

4. 감마 AI로 카드 섹션 제작

  • 생성된 콘텐츠를 350자로 요약
  • 감마 AI를 통해 6-8장의 카드 섹션으로 변환
  • 사용자 정의 테마와 상세 콘텐츠 설정

5. 플랫폼별 게시 전략

네이버 블로그

  • 코드펜 활용
  • 단계별 콘텐츠 복사 및 이미지 삽입
  • 카테고리 및 태그 설정

티스토리

  • 서식 관리 기능 활용
  • HTML 코드 붙여넣기
  • 이미지 및 썸네일 설정
  • 태그 최적화

자동화를 향한 여정

이 워크플로우는 궁극적으로 완전 자동화를 위한 연습 단계입니다. 구글 시트, API 연동 등을 통해 더욱 효율적인 콘텐츠 제작 시스템을 구축할 수 있습니다.

결론

AI 도구를 활용한 콘텐츠 제작은 더 이상 먼 미래의 이야기가 아닙니다. 퍼플렉시티, 감마 AI 같은 도구들을 통해 누구나 고품질 콘텐츠를 빠르고 효율적으로 만들 수 있습니다.

: 포기하지 말고 꾸준히 학습하세요. 모든 여정에는 시간이 필요합니다!

SEO를 위한 기초 HTML 속성 자세히 보기

SEO를 위한 기초 HTML 속성 자세히 보기

검색 엔진 최적화를 시작하는 가장 기본적인 코드 이해부터!


🧱 GENERAL – HTML 속성과 SEO의 관계

웹사이트를 만들거나 블로그를 운영할 때 가장 먼저 만나는 언어가 HTML입니다. 하지만 단순히 웹페이지를 꾸미기 위한 구조 언어로만 알고 있다면 SEO 기회를 놓칠 수 있어요. 검색 엔진은 HTML 속성을 통해 페이지의 정보를 파악하고, 적절히 색인하여 검색 결과에 반영합니다. 따라서 기본적인 HTML 태그와 속성에 대한 이해는 성공적인 SEO 전략의 첫걸음입니다.

📌 추천 이미지: “HTML 코드에 하이라이트된 메타 태그 예시 스크린샷”


🔍 INSIGHT – 검색엔진이 이해하는 HTML, 어떤 속성이 중요한가?

HTML에는 SEO와 직결되는 다양한 속성이 존재합니다. 그중에서도 검색엔진에 강력한 신호를 보내는 핵심 속성은 다음과 같습니다.

1. <title> 태그 – 검색 결과의 제목이 된다

HTML 문서의 <head> 영역에 위치하는 <title> 태그는 검색 결과에 표시되는 제목을 결정합니다. 이 태그에 핵심 키워드를 포함하면 검색 노출 가능성이 크게 증가합니다.

html
<title>기초부터 배우는 HTML SEO 최적화</title>

2. <meta name="description"> – 클릭을 유도하는 설명문

메타 설명 태그는 검색 결과의 설명(Description)에 표시되며, 클릭률에 직접적인 영향을 줍니다. 150자 내외의 자연스러운 설명에 키워드를 포함하세요.

html
<metaname="description"content="초보자를 위한 HTML SEO 태그 완벽 가이드! 검색엔진에 잘 노출되는 핵심 요소를 알아보세요.">

3. 제목 태그(<h1>~<h6>) – 콘텐츠의 구조를 알려주는 계단식 제목

검색엔진은 제목 태그를 통해 문서의 논리 구조를 이해합니다. <h1>은 가장 중요한 제목, <h2>, <h3>은 그 하위 항목을 나타내므로 콘텐츠에 맞는 계층적 사용이 중요합니다.

📌 추천 이미지: “h1~h3 구조가 계층적으로 나열된 다이어그램”

3막구조

4. alt 속성 – 이미지의 의미를 설명하라

이미지에 alt 속성을 추가하면 시각장애인 사용자와 검색엔진 모두에게 이미지를 설명할 수 있습니다. 이 속성은 이미지 검색 결과에 영향을 줄 뿐 아니라, 콘텐츠의 접근성과 SEO를 함께 향상시킵니다.

html
<img   src="html-seo-guide.png" alt="HTML SEO 최적화 가이드 이미지- 'alt = 3막구조' ">

🎯 SPECIFIC – 초보자가 실전에 적용할 수 있는 팁

이제 실제로 어떻게 적용할 수 있을까요? 초보자도 어렵지 않게 실천할 수 있는 팁 몇 가지를 소개합니다.

✅ 홈페이지 제목과 설명부터 점검하자

워드프레스나 티스토리 사용자라면, 관리자 설정 > 사이트 정보 메뉴에서 사이트 제목과 설명(meta description)을 확인해 보세요. 키워드를 반영하고 자연스럽게 작성되었는지 체크!

✅ 글마다 제목 구조를 명확히

블로그 포스팅을 작성할 때 <h1>은 포스트 제목에만, 이후에는 소제목에 <h2>, 세부 항목은 <h3>로 나눠주세요. 검색엔진은 이를 통해 글의 내용을 빠르게 파악합니다.

✅ 이미지에 alt 속성 항상 입력

특히 상품 이미지나 인포그래픽이 있다면 alt 속성에 해당 이미지의 설명을 반드시 추가하세요. 

예: "3막구조".

📌 추천 이미지: “alt 속성과 함께 입력된 이미지 코드 예시 스크린샷”

3막구조

✍ 마무리 – HTML 이해는 SEO의 기본 체력이다

복잡한 알고리즘 이전에 검색엔진은 HTML이라는 언어로 웹페이지를 해석합니다. 기초 HTML 속성을 정확히 이해하고 잘 활용하는 것만으로도 SEO 경쟁력은 크게 향상될 수 있어요. 오늘부터라도 HTML 속성에 조금 더 관심을 가져보세요. SEO는 디테일에 강한 사람이 이깁니다!

2025년 3월 25일 화요일

EP1, with MAKE, AI글쓰기 들어가기

EP1, with MAKE, AI글쓰기 들어가기

with make를 알아보자

시나리오, 웹이라는 단어가 나옵니다.  여기서 웹이란 서비스를 제공하는 프로그램이라고 할까요, 그리고 이서비스를 하나는 목적에 맞게 엮어가는 것을 시나리오라고 부릅니다. 이야기를 어떻게  연결할 것인가? 어떻게 표햔 할것인가가 시나리오였듯이 말입니다.

이야기를 영상화하기 위해서는 시나리오라는 영상 이야기로 만들어야 합니다.  따라서 이야기라는 글을 시나리오라는 영상언어로 바꾸는 포맷이 존재하는 것이조!!  포맷이라고 나옵니다.  이떤 약속이 있다. 이정도로 생각하면 됩니다.   사람들은 이 약속에 관심이 없습니다.

우린 관심이 있조.!!   시나리오,  먼저, 모둘에 대해서 알아봅시다. 모듈을 정의해보면 모듈은 웹입니다.  웹은 서비스이고요. 이렇게 생각하면 될것 같아요.  오늘은 워드메이크를 활용하는 방법을 알아보겠습니다.

웹의 종류는 4가지가 있다. 

첫째, ACTION이다.  무엇인가 행동한다. 둘째, 서치이다.

 

 

둘째, Searches서치이다.  

특정 시트, 엑셀에서 무엇인가 찾아내고 가져옵니다.

 

 

세째, 트리거입니다. 

방아쇠를 당겨라. 첫번째 웹이 여기에 해당됩니다.
트리거는 다양한 유형이 있습니다.  폴링트리커와 인스탄트트리거가 있습니다. 서비스를 감시하고   
인스탄트 트리거는 ...
 

세번째는 이터레이터입니다.

마지막으로 집계입니다. 여러개의 정보를 합치는 것을 말합니다.
다음주제는 시나리오에 대해서 알아보겠습니다.

네번째, 시나리오

 
단순한 웹, 날씨는 입력할 값이 지역값만 있었습니다.
날씨가 맞는지 확인해 봐야조

다음은 구글 시트를 불러옵니다.

값을 저장할 모듈, 구글 시트를 불러옵니다.
 

이렇게 들어옵니다.  서비스, 웹이 두개 동작한거조, 

지금까지 반복적으로 받아볼수 있는 단순한 프로세스를 알아봤습니다. 이때 우리는 시간 간격마다 자료를 저장할수 있었습니다. 이렇게 말이조,  스케줄링에 값을 부여하면 자동으로  값을 가져오게 됩니다.

매 15분마다 동작하는 것이조.

 
 
 
 
 
 
 
이제 좀더 앞으로 나가봅시다. 두번째 주제는 라우터와 필터기능입니다.
라운터는 받은 데이터의 흐름을 여러개로 분산시킬수 있는 기능입니다. 통신에서 라우터가 있조. 통신에서 사용했던 용어인데, 원하는 주소를 찾아가도록 했던 라우터라는 장비가 있고 그장비의 대표주자로는 시스코라는  회사가 있었습니다.  지금은....
 
주어진 동작을 분산시킵니다.
 

첫째,  라우터는 뭐지?

그리고 이라우터에 필터기능을 추가하면 구체적으로 다른 경로에 도달하도록 지시할수있습니다. 필터링하라....입니다.
어떤 필터링을 준것인가요?  온도가 20이하일 경우,  온도가 20도를 초과할 경우이내요.  화씨와 섭씨온도에 대해서도 지정해야 할것 같습니다.  이러한 지정을 우리는 필터라는 이름으로 사용하는 것입니다. 공부한다는 것은 이처럼, 새로운 용어에 대해서 알아가는 것을 말한다. 이고 좀더 차원이 높아지면 새로운 용어를 만들어내거나,  배우지 않았지만 알아가는 추즉하는 사고하는 과정을 가지는 것이겠조.
 
 
/온도의 값에 따라 필터링되어 라우팅됩니다.

두번째, 필터

지금까지 각각의 필터, 라우터에 대한 상황을 설명했고요. 이제는 이를 시나리오에 적용해 보겠습니다. 우선 라우터를 넣는 방법이내,  두가지가 있다고

일단 첫번째, tools에가면  네가지 케이스가 준비되어 있더라고,

액션에 대한 동작으로 우리는 라우터를 선택하는 것이지,   이렇게 하나의 라우터에 두개의 필터를 적용하도록 구글시트를 드러그로 선택하고 카피-페스트로하나를 더만들겠습니다. 이렇게 두개의 필터를 만들면 구체적인 ....  두개의 라우터를 통해 시트에 도달하도록 합니다.

 

첫번째, 시트는 비가오는 날이면 도달하는 시트이고, 조건이라는 필드에 마우스를 클릭하면 서치 아이템이 나타납니다. 와우....우!

 
그리고 텍스트 오포레이터들이 아주 많이 준비되어있는데요.

조건에 들어가 rain이라는 변수가 있는지 없는지를 나타내는 기본오퍼레이터가 존재합니다.

다음은 텍스트 오퍼레이터입니다. 컨테인에 대한 존재, 같은지, 어떤 텍스트가 포함되어있는지를 나타내고 이를 확인하는 오퍼레이터입니다.  콘테인 필터에 대한 부분....

 

다음으로는 숫자를 기준으로 이상이하를 가지고 조건문을 줄수 있고,

 
 
 
 
 
시간 날짜를 통해서 제어를 할수 있습니다.
이정도로 살펴보고
실제적으로 비가오는 경우에 구체적인 케이스를 적용해보겠습니다.
 
이렇게 적용할 수 있습니다.
온도에 대해서도 추가해서 사용할 수 있습니다.
합집합과 교집합으로  적용가능합니다.
 

지금까지 우리는 날씨 데이터를 이용해서 시트에 저장해봤습니다.

지속적으로 데이터를 가져올 것인지,  특별한 이벤트만 있을 때 가져오게 됩니다. 자동화란 무엇입니까? 스케줄링에 따라서...동작하게 합니다.
 

세번째, 트리거

 
이제 트리거에 대해서 알아봅시다.  스케줄의 시작은 트리거링으로 부터 시작됩니다.
첫째, 폴링트리거에 대해서 알아봅시다.

-먼저 잘동작하는 지

-다음으로 스케줄링을 하게 됩니다.
-자동화가 가능하다.
토글버튼이 오프에서 온으로 바꾸어줍니다.
run once, 시나리오 전체를 실행합니다. 하단에는 작업에 대한 기록이 적히게 됩니다.
 
 
  처음으로
 

자동화 시스템을 Make.com과 AI 도구

자동화 시스템을 Make.com과 AI 도구

오늘은 소셜 미디어 자동화 시스템을 Make.com과 AI 도구를 사용하여 설정하는 방법에 대한 단계별 가이드입니다. 노코드로 자동화하는 방법 중 또하나를 알아봅니다.

 

단계별 가이드

1. Make.com 계정 설정:

  • 계정 생성: Make.com에 가입합니다.
  • 새 시나리오 만들기: "새 시나리오 만들기" 버튼을 클릭하여 새로운 자동화를 시작합니다.

2. Google Sheets를 사용한 트리거 생성:

  • Google Sheets 통합:
    • "+" 버튼을 누르고 Google Sheets를 검색합니다.
    • "Watch New Row"를 선택합니다.
  • 트리거 구성:
    • Google Sheets 계정을 연결합니다.
    • 스프레드시트와 특정 시트를 선택합니다.
    • 제한을 1로 설정하여 한 번에 한 행만 처리하도록 합니다.
    • 트리거가 매일 특정 시간에 실행되도록 일정 설정을 합니다.

3. Perplexity를 사용하여 기사 요약:

  • Perplexity 통합:
    • "+" 버튼을 누르고 Perplexity를 검색합니다.
    • "Create a Chat Completion"을 선택합니다.
  • API 키:
    • Perplexity에서 API 키를 얻어 Make.com에 입력합니다.
  • 모듈 설정:
    • 모델을 Llama 3로 설정합니다.
    • 콘텐츠 필드에 Google Sheets에서 가져온 링크를 사용하여 기사를 요약하도록 명령을 입력합니다.

4. Claude와 OpenAI를 사용하여 소셜 미디어 게시물 작성:

  • 다른 플랫폼을 위한 라우터 설정:
    • Facebook, Instagram, LinkedIn, Twitter용 라우터를 생성합니다.
  • Facebook과 LinkedIn을 위한 Claude 통합:
    • Claude를 검색하고 "Create a Message"를 선택한 다음 API 키를 입력합니다.
    • 모델을 Claude 3 Opus로 설정합니다.
    • Perplexity에서 생성된 요약을 사용하여 Facebook 및 LinkedIn 게시물의 프롬프트를 작성합니다.
  • Instagram과 Twitter를 위한 OpenAI 통합:
    • OpenAI를 검색하고 "Create a Completion"을 선택한 다음 API 키를 입력합니다.
    • 모델을 GPT-4로 설정합니다.
    • Perplexity에서 생성된 요약을 사용하여 Instagram 및 Twitter 게시물의 프롬프트를 작성합니다.

5. Instagram용 이미지 생성:

  • DALL-E를 사용한 이미지 생성:
    • Instagram 라우터에서 추가 모듈을 추가하고 OpenAI의 DALL-E를 검색합니다.
    • 기사 요약을 기반으로 이미지를 생성하도록 프롬프트를 입력합니다.

6. 소셜 미디어 플랫폼에 연결:

  • Facebook 통합:
    • Facebook을 검색하고 "Create a Post"를 선택한 다음 계정을 인증합니다.
    • Claude가 생성한 텍스트를 입력합니다.
  • Instagram 통합:
    • Instagram for Business를 검색하고 "Create a Photo Post"를 선택한 다음 계정을 인증합니다.
    • DALL-E가 생성한 이미지의 URL과 OpenAI에서 생성된 텍스트를 사용합니다.
  • Twitter 통합:
    • Twitter(X)를 검색하고 "Create a Post"를 선택한 다음 계정을 인증합니다.
    • OpenAI에서 생성된 텍스트를 사용합니다.
  • LinkedIn 통합:
    • LinkedIn을 검색하고 "Create a Text Post"를 선택한 다음 계정을 인증합니다.
    • Claude가 생성한 텍스트를 사용합니다.

7. 테스트 및 조정:

  • 한 번 실행: 시나리오를 테스트하여 모든 부분이 올바르게 작동하는지 확인합니다.
  • 프롬프트 수정: 원하는 결과에 맞게 프롬프트를 조정합니다.

8. 일정 설정 및 모니터링:

  • 작업 저장: 작업을 정기적으로 저장합니다.
  • 자동화: 자동화를 매일 실행되도록 설정합니다.
  • 이메일 검토 옵션: 초기에는 자동 게시 전에 이메일로 게시물을 검토하도록 설정할 수 있습니다.

9. 콘텐츠 파이프라인 유지:

  • Google Sheets 관리: Google Sheets가 새 기사 URL로 정기적으로 업데이트되도록 합니다.

결론

오늘은 자동화, make, with MAKE를 알아봤습니다. 이 단계를 따르면 수동 작업 없이 일관된 참여를 유지하면서 소셜 미디어 게시를 효과적으로 자동화할 수 있습니다. 결과를 더욱 세밀하게 조정하고 브랜드의 목소리에 맞추려면 프롬프트와 설정을 필요에 따라 조정하십시오.  언제나 실행이 중요하조. API가 필요해! 우리에게는....

메세톡이었습니다.