새롭게 추가된 와탭의 기능과 서비스를 확인해보세요! 대규모 언어 모델(LLM) 환경을 효과적으로 모니터링할 수 있는 LLM Observability가 출시되었습니다.
Python 및 Java 환경을 지원하며, OpenAI·Anthropic 등 프로바이더별 API 호출 추적, 토큰 사용량 및 비용 분석, TTFT(첫 토큰 수신 시간)·TPOT(출력 토큰당 생성 시간) 등 핵심 성능 지표를 모니터링합니다.
자체 GPU 인프라에서 LLM을 운영할 때는 LLM 성능 지표와 GPU 상태(VRAM, 사용률, 온도 등)를 대시보드에서 연계 분석하여 병목 원인을 빠르게 파악할 수 있습니다. |
|
|
와탭에서 OpenAI Codex, Claude Code, Gemini 등 다양한 LLM과 연동 가능한 WhaTap Open MCP를 오픈소스(무료)로 출시했습니다.
SaaS 및 설치형 고객 모두 사용할 수 있으며, 모니터링 에이전트 설치 안내, PromQL 기반 성능 데이터 요약, 이상 탐지 및 분석 등 AI를 활용해 모니터링 업무의 효율을 극대화할 수 있습니다. 관심 있으신 분들은 아래 버튼을 통해 공식 매뉴얼을 참고해 주세요. |
|
|
Go 언어로 서비스를 운영하시는 분들이라면 모니터링 코드를 소스에 직접 심는 번거로움에 공감하실 겁니다. 이번에 새롭게 추가된 whatap-go-inst는 빌드 시 모니터링 코드를 자동 삽입하는 CLI 도구입니다.
기존 go build 명령어를 whatap-go-inst go build 로 대체하는 것만으로 계측이 완료되며, 소스코드를 한 줄도 수정할 필요가 없습니다. Gin, Echo, Fiber, Chi, net/http 등 주요 웹 프레임워크는 물론 database/sql, GORM, Redis, MongoDB, gRPC, Kafka까지 폭넓게 지원하고, Dockerfile에서도 동일한 방식으로 적용할 수 있어 멀티스테이지 빌드 환경에도 손쉽게 통합됩니다. |
|
|
Java 에이전트 설치 시 애플리케이션에 맞는 weaving 설정을 일일이 찾아 작성하셨다면, 이제 Java Helper를 활용해 보세요. 애플리케이션 JAR 파일 경로나 실행 중인 프로세스의 PID만 지정하면 사용 중인 라이브러리를 자동 분석하여 최적의 whatap.conf 설정을 생성해 줍니다.
매칭된 weaving 모듈과 버전 불일치 여부를 테이블로 바로 확인할 수 있어, 신규 설치는 물론 Spring Boot 업그레이드 등 라이브러리 변경 후 설정 갱신에도 유용합니다. JDK 8 이상이면 사용 가능하며, 에이전트 패키지에 포함되어 있습니다. |
|
|
트랜잭션의 액티브 스택을 AI가 자동으로 분석해 주는 기능을 베타로 출시했습니다. 분석 버튼 한 번으로 수집된 스택 덤프를 기반한 전체 실행 흐름 요약, 반복 실행 패턴 감지, 심각도별(High/Medium/Low) 성능 이슈 진단, 우선순위에 따른 구체적인 개선 권장 사항까지 4개 섹션으로 정리된 결과를 확인할 수 있습니다.
복잡한 스택 분석을 직접 수행할 필요 없이 AI가 데드락, I/O 대기, 락 경합 등 주요 문제를 자동으로 찾아내고 개선 방향을 안내해 드립니다. |
|
|
|