본문으로 건너뛰기

RTX 3060 12GB 중고 구매기 - 와이프 설득용 PPT까지 만든 썰

목차

😤 CPU로는 한계가 왔다
#

트레이딩 봇 MOON SEEKER를 개발하면서 슈퍼트렌드 전략의 최적 파라미터를 찾아야 했어요. 문제는 테스트해야 할 조합이 2만 개라는 거였죠.

200개 알트코인 × 다양한 파라미터 조합 = 2만 개의 백테스팅

서버의 E3-1230 V2 CPU로 순차 처리하면 며칠이 걸릴 판이었어요. GPU 병렬 처리가 절실했습니다.

🎯 GPU 선정의 조건
#

마냥 좋은 GPU를 살 수는 없었어요. 현실적인 제약 조건이 있었거든요.

조건이유
VRAM 8GB 이상2만 개 조합을 메모리에 올려야 함
8핀 케이블 1개파워 케이블이 하나뿐
적당한 가격와이프 설득 가능한 선
낮은 전력24시간 돌릴 거라 전기세 중요

📊 GPU 후보 비교
#

중고 시장을 뒤져서 후보군을 정리했어요.

GPU중고가VRAM소비전력케이블
GTX 107010만8GB150W
GTX 108015만8GB180W
RTX 2070 Super19만8GB215W
RTX 306025만12GB170W
RTX 2080 Ti25만11GB250W✗ (8핀x2)
RTX 3060 Ti28만8GB200W

RTX 3060이 눈에 들어왔어요. 같은 가격대의 2080 Ti보다 VRAM이 1GB 더 많고, 전력은 80W나 적게 먹더라고요. 케이블도 8핀 1개면 되고요.

👊 보스전: 와이프 설득
#

GPU를 사려면 넘어야 할 산이 있었어요. 바로 와이프 설득이라는 보스전이었죠.

“아직 수익도 안 나는데 25만원짜리 그래픽카드를 왜 사?”

논리적으로 접근하기로 했어요. PPT를 만들었습니다. 진짜로요 ㅋㅋㅋ

MOON SEEKER GPU 투자 제안 PPT 표지
회사에서 보고서 쓰듯이 만들었어요… 😅

PPT 구성은 이랬어요.

  1. 현재 상황 (봇 개발 완료, 수익화 전)
  2. 문제점 (2만 개 조합, CPU 한계)
  3. 해결책 (GPU 병렬 처리)
  4. GPU 비교표 (6개 모델 분석)
  5. 선정 이유 (12GB + 170W + 25만)
  6. 전기세 분석 (월 18,000원)
  7. 투자 요청 (250,000원)
GPU 비교표 슬라이드
VRAM 최대 + 전력 최소 = RTX 3060이 최적이라는 논리

전기세 비교도 넣었어요. RTX 3060은 월 18,000원, RTX 2080 Ti는 월 27,000원. 매달 9,000원 절약이라는 논리였죠.

결과: 설득 성공! 💪

🎉 26만원에 낙찰
#

당근마켓에서 RTX 3060 12GB를 26만원에 구했어요. 목표가 25만원이었는데 1만원 오버했지만, 상태 좋은 매물이라 만족합니다.

😱 반전: RAM이 터진다
#

GPU 장착하고 백테스팅을 돌렸는데… 컴퓨터가 죽어버렸어요.

RAM 16GB + Swap 8GB = 24GB
그래도 OOM → 커널 패닉 → 사망

원인을 찾아보니 H61 메인보드의 한계였어요.

칩셋최대 RAM
H6116GB
B7532GB
Z7732GB

H61은 DDR3 16GB가 맥스더라고요. 아무리 GPU가 좋아도 RAM이 부족하면 소용없었던 거죠 😭

💡 해결: 프리컴퓨트 데이터를 SSD로
#

Swap 늘리는 건 임시방편이었어요. 근본적인 해결책을 찾았습니다.

프리컴퓨트한 데이터를 RAM에 다 올리지 않고 SSD에 파일로 캐싱하는 방식이었죠.

# 이전: 전부 RAM에 올림 → OOM 💀
all_data = precompute_all_symbols()

# 이후: SSD에 파일로 캐싱
for symbol in symbols:
    result = precompute(symbol)
    save_to_disk(f"cache/{symbol}.pkl")

# 필요할 때만 로드
data = load_from_disk(f"cache/{symbol}.pkl")

200개 심볼 데이터를 한 번에 RAM에 올릴 필요가 없어졌어요. 필요한 것만 그때그때 로드하면 되니까요.

SSD가 RAM보다 느리긴 하지만, OOM으로 죽는 것보다 100배 나아요. 결과적으로 16GB RAM으로도 백테스팅을 돌릴 수 있게 됐습니다. 💪

🎁 보너스: 로컬 LLM도 가능
#

백테스팅 외에도 RTX 3060 12GB로 할 수 있는 게 있었어요. 바로 로컬 LLM이죠!

2026년 기준 로컬 LLM 트렌드가 엄청 발전했어요. RTX 3060 12GB면 꽤 쓸만한 모델들을 돌릴 수 있습니다.

모델VRAM용도추천도
DeepSeek-R1:8b~6GB추론/수학⭐⭐⭐⭐⭐
Qwen 2.5:14b Q4~10GB범용/다국어⭐⭐⭐⭐⭐
Qwen 2.5-Coder:7b~5GB코딩⭐⭐⭐⭐⭐
Llama 3.3:8b~6GB범용⭐⭐⭐⭐
Phi-4:14b~10GB추론/효율⭐⭐⭐⭐
Mistral:7b~5GB빠른 응답⭐⭐⭐⭐
Gemma 2:9b~7GB대화⭐⭐⭐

요즘 핫한 모델은 DeepSeek-R1이에요. 추론 능력이 OpenAI o1급이라는 평가를 받고 있고, 8B 버전은 3060에서 쾌적하게 돌아갑니다.

텔레그램 봇에 연결해서 단톡방 농담봇 + 웹검색봇으로 활용할 계획이에요.

# Ollama로 간단하게
ollama pull deepseek-r1:8b        # 추론용
ollama pull qwen2.5-coder:7b      # 코딩용
ollama run deepseek-r1:8b

📝 교훈
#

  1. GPU만 좋다고 되는 게 아니다 - RAM, 메인보드 등 전체 밸런스가 중요해요
  2. 와이프 설득은 PPT로 - 논리적 접근이 답입니다 ㅋㅋ
  3. H61은 16GB가 한계 - 하지만 디스크 캐싱으로 해결 가능!
  4. 문제는 해결책이 있다 - 보드 교체 없이도 방법은 있어요

🚀 앞으로의 계획
#

  1. 백테스팅으로 최적 전략 찾기
  2. 로컬 LLM 텔레그램 봇 구축
  3. 수익 내서 투자금 회수 (제발… 🙏)

비슷한 고민 하시는 분들께 도움이 되셨으면 좋겠어요. RAM 부족하면 프리컴퓨트 데이터를 디스크에 캐싱하는 방법도 고려해보세요!

궁금한 점 있으시면 댓글로 남겨주세요!

본 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다.


💬 댓글