본문 바로가기
  • ✨contact : survd0404@gmail.com

전체 글52

컴퓨터의 수 표현 진화 타임라인 아날로그 시대 — “수”를 전기로 표현하려던 시절시대: 1940~50년대 초반방법: 전압이나 전류 크기 자체가 “수”문제: 잡음이 조금만 섞여도 값이 달라짐→ “연속값(analog)”은 정확하지 않다.➡ 인간이 생각함:“전압을 아예 0과 1로 나누면 어때?”→ 노이즈에 강하고 단순한 디지털 표현의 시작.고정소수점 (Fixed-Point)시대: 1950–1960개념:일정한 자릿수를 정해놓고 소수점 위치를 “고정”시킨 수.예: 00011010 = 26 → 2.6 으로 소수점 위치를 인간이 미리 약속.장점: 빠르고 간단.단점: 표현 가능한 범위가 작고, 큰/작은 수 둘 다 다루기 어려움.➡ 과학 계산, 통계용으로 부족.부동소수점 (Floating-Point)시대: 1970~1980대표: IEEE 754 표준개.. 2025. 11. 9.
내 길 위에 있었던 사람 가끔 그런 생각을 한다.인생을 살다 보면 어떤 시기에 꼭 필요한 사람이 나타난다는 것.나에게는 그게 지준화 멘토님이었다. 대학생 2학년 때, 진로도 뚜렷하지 않고 그냥 시간만 흘러가던 시절.그때 멘토님을 만나면서 처음으로 “내가 뭘 좋아하고, 뭘 해야 하는가”를 생각하게 됐다.그때 들었던 말들이 아직도 기억난다.“지금은 방향보다 기본기가 더 중요해. 이 시기를 잘 써야 나중에 네가 흔들리지 않아.”그 말대로 나는 작은 강의부터 하나씩 들어봤고,그게 내 인생의 첫 ‘방향 잡기’였다. 3학년, 4학년이 되어서는멘토님이 “이제는 준비할 때야. 네가 할 수 있는 걸 보여줘야 해.”라고 했고, 그 말에 용기 내서 본격적으로 취준을 시작했다.그 시기에 솔직히 많이 힘들었는데,멘토님은 늘 나보다 내 상황을 먼저 봐줬.. 2025. 10. 29.
Semantic Deduplication (의미 기반 중복 제거) 🔹 1. Sentence-BERT 임베딩 생성“문장을 숫자로 바꿔서 의미 공간에 배치하는 단계” Sentence-BERT는 **문장 단위 의미를 벡터(숫자 리스트)**로 바꿔주는 모델이에요.예:“나는 밥을 먹었다.” → [0.12, -0.08, 0.54, ...]“식사를 했다.” → [0.10, -0.09, 0.56, ...]두 문장은 숫자가 거의 비슷하죠.이 벡터는 보통 384~768차원짜리 “의미 좌표”예요. 📦 Python 예시: from sentence_transformers import SentenceTransformermodel = SentenceTransformer('all-MiniLM-L6-v2')embeddings = model.encode(sentences, normalize_em.. 2025. 10. 28.
GloVe 임베딩 모델 펼쳐보기 1) 모델을 코드로 ‘펼쳐’ 보기 (내부 구조 탐색)api.load("glove-wiki-gigaword-50")는 Gensim의 KeyedVectors 객체를 반환합니다.이건 “단어 → 벡터” 해시맵과 벡터 행렬을 들고 있는 테이블이지, 신경망 그래프가 아닙니다. import gensim.downloader as apimodel = api.load("glove-wiki-gigaword-50") # KeyedVectors# 기본 정보type(model) # gensim.models.keyedvectors.KeyedVectorslen(model) # 어휘수 (vocab size)model.vector_size #.. 2025. 10. 28.