Runway로 AI 영상 만들어봤습니다 — 3일 써본 솔직 후기

AI 영상 얘기가 슬슬 많아지길래 저도 한번 써봐야겠다 싶어서 Runway(런웨이)를 결제해봤습니다. 월 15달러짜리 가장 저렴한 요금제로요. 결론부터 말씀드리면, 신기하긴 한데 아직 돈 주고 쓸 만큼은 아닙니다. 최소 저에게는요. 오늘은 3일 동안 쓰면서 느낀 점을 있는 그대로 적어보겠습니다.

첫째 날 — “와, 이거 진짜 되네”

처음엔 감탄했습니다. 텍스트로 “구름 사이를 날아가는 흰 고래”라고 쳤는데 진짜로 그런 영상이 4초짜리로 나오더라고요. 화질도 생각보다 괜찮았습니다. 이걸로 유튜브 쇼츠 만들면 되겠다 싶어서 10개 정도 연속으로 뽑아봤습니다. 근데 여기서 문제가 시작됐어요.

크레딧이 너무 빨리 떨어집니다. 15달러짜리 요금제가 625 크레딧을 주는데, 4초짜리 영상 한 편 뽑는 데 25 크레딧씩 써요. 즉, 한 달에 25편 정도가 한계입니다. 근데 첫날 만족스러운 결과가 나올 때까지 같은 프롬프트를 5~6번씩 다시 뽑아봐야 하거든요. 그러면 실제 건질 영상은 하루에 2~3개밖에 안 됩니다.

둘째 날 — “뭔가 이상한데?”

뭘 만들어도 결과물에 미묘한 위화감이 있습니다. 사람이 걸어가는 장면을 뽑았는데 다리가 세 개인 것 같기도 하고, 컵을 드는 장면에서는 컵이 공중에서 생겨나기도 합니다. 3~4초 길이 안에서는 괜찮은 것 같은데 5초가 넘어가면 이상해지기 시작해요. 그래서 저는 중간에 “이건 통짜 영상 만드는 용도가 아니구나”로 생각을 바꿨습니다.

오히려 쓸만한 용도가 따로 있더라고요.

  • 정지된 이미지에 움직임 넣기 (사진 한 장 올리고 “바람에 머리카락 날리게”라고 입력)
  • 배경 영상용 B-roll (유튜브 편집할 때 배경으로 깔 짧은 영상)
  • 로고나 타이틀 뒤에 깔 모션 그래픽

이런 용도로는 진짜 빠르고 편합니다. 스톡 영상 사이트에서 찾아 헤매던 시간이 확 줄어요.

셋째 날 — “어, 이게 되네?”

Image to Video 기능을 써봤습니다. 제가 미드저니로 뽑은 고양이 사진을 넣고 “고양이가 천천히 고개를 돌린다”라고 입력했더니, 정말 그대로 움직였습니다. 이게 텍스트에서 바로 영상 뽑는 것보다 훨씬 안정적이에요. 왜냐하면 첫 장면이 이미 고정돼있으니까, AI가 “무에서 유를 창조”하지 않고 “있는 걸 움직이기만” 하거든요.

이 기능을 발견하고 나니 Runway의 진짜 사용법이 보이기 시작했습니다.

  1. 미드저니나 Ideogram으로 먼저 이미지를 뽑는다
  2. 그 이미지를 Runway에 올리고 움직임을 지시한다
  3. 4초짜리 클립이 나오면 편집 프로그램에서 여러 개 이어붙인다

이 워크플로우로 가니까 크레딧도 훨씬 덜 쓰게 되고, 결과물도 훨씬 나아졌습니다.

뭐가 좋았고 뭐가 아쉬웠나

좋았던 점

  • Image to Video는 진짜 신기함
  • 인터페이스가 깔끔해서 뭘 눌러야 할지 금방 감이 옴
  • 720p 해상도라서 유튜브 쇼츠용으로는 충분함

아쉬웠던 점

  • 크레딧 소모 속도가 너무 빠름
  • 4초 이상 영상은 화질이 뚝 떨어지거나 이상해짐
  • 한국어 프롬프트는 영어보다 결과가 확연히 떨어짐
  • 얼굴이 클로즈업되는 장면에서는 표정이 살짝 어색함

결제할 만한가요?

저는 한 달 쓰고 해지했습니다. 제가 영상 편집을 전업으로 하는 건 아니고, 가끔 유튜브 올리는 정도여서요. 만약 유튜브 쇼츠를 주 3편 이상 올리는 분이라거나, 광고 소재 B-roll이 꾸준히 필요한 분이라면 월 15달러는 충분히 뽑을 수 있다고 봅니다. 반대로 “한번 만들어볼까?” 수준이라면 그냥 무료 체험(125 크레딧)으로 충분합니다.

AI 영상 쪽은 거의 3~4개월마다 한 번씩 판이 뒤집힙니다. OpenAI의 Sora, Google Veo, 중국의 Kling 같은 것들이 계속 올라오고 있어서, 지금 결제하지 않고 몇 달 기다려보는 것도 방법입니다. 저는 일단 관망하면서 저렴해지기를 기다려볼 생각이에요.

댓글 남기기