취미생활

취미생활

  • 분류 전체보기 (1189)
    • Web Server (28)
      • Apache (5)
      • nginx (23)
    • k8s (174)
      • EFK (106)
      • Kafka (31)
    • 마인크래프트 (39)
    • Docker (18)
    • 파이썬 (166)
      • Django (108)
      • OCR (14)
      • FastAPI (12)
    • Centos (11)
    • Windows (7)
    • Data (30)
      • PostgreSQL (16)
      • Oracle (8)
    • Java (169)
      • Spring Boot (71)
      • Spring Boot Security (22)
      • mybatis (16)
      • Tomcat (3)
      • Azure 클라우드 (0)
      • 마인크래프트 (9)
      • Thymeleaf (0)
    • Javascript (216)
      • jQuery (9)
      • Sencha (164)
    • HTML (6)
      • Style Sheet (2)
    • 형상관리 (1)
    • 클라우드 (17)
      • Azure (3)
      • Azure DevOps (9)
      • Google Colaboratory (1)
      • Google API (3)
    • 채굴 & NFT (3)
    • Android (0)
    • Git (11)
    • Network (17)
    • OS (71)
    • tasker (7)
    • 보안 (4)
    • BeagleBone Black (7)
    • 브라우져 (2)
    • 수학 (13)
      • 도형 (10)
      • 명제 (1)
      • 집합 (2)
    • 영어 (5)
    • 배치 (2)
    • 모바일 (1)
    • AI (2)
    • Editor (3)
      • vscode (3)
    • 정규식 (1)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

취미생활

컨텐츠 검색

태그

Kafka JavaScript minecraft spring boot security fluentd sencha DevOps Kubernetes spring boot Java K8S admin Elasticsearch ubuntu django Grid minikube metricbeat 마인크래프트 nginx

최근글

댓글

공지사항

아카이브

AI(2)

  • LLM 구성: vLLM + TheBloke/SOLAR-10.7B-Instruct-v1.0-AWQ

    llm.ymlapiVersion: v1kind: PersistentVolumeClaimmetadata: name: models-pvc namespace: llmspec: accessModes: [ "ReadWriteOnce" ] resources: requests: storage: 100Gi storageClassName: ssd-local volumeName: models-pv-3080 # 같은 로컬 디스크 공유(원치 않으면 별도 PV 생성)---apiVersion: apps/v1kind: Deploymentmetadata: name: vllm-solar namespace: llmspec: replicas: 1 selector: matchLabels: { app..

    2025.08.28
  • LLM구성: lama.cpp(server-cuda) + solar-10.7b-instruct-v1.0.Q4_K_M.gguf

    llm.ymlapiVersion: apps/v1kind: Deploymentmetadata: name: llama-solar-gguf namespace: llmspec: replicas: 1 selector: matchLabels: { app: llama-solar-gguf } template: metadata: labels: { app: llama-solar-gguf } spec: nodeSelector: kubernetes.io/hostname: "3080" runtimeClassName: nvidia containers: - name: server image: ghcr.io/ggerganov/llama.c..

    2025.08.27
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바