<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0">
  <channel>
    <title>MEDC</title>
    <link>https://hsteve.tistory.com/</link>
    <description>Physics, AI, and something educational..
Hey Steve~, Make Each Day Count !</description>
    <language>ko</language>
    <pubDate>Thu, 16 Apr 2026 22:42:48 +0900</pubDate>
    <generator>TISTORY</generator>
    <ttl>100</ttl>
    <managingEditor>moviewine</managingEditor>
    <image>
      <title>MEDC</title>
      <url>https://tistory1.daumcdn.net/tistory/5223846/attach/313eaf3e9cc941d0bd0bc2cb364daf3e</url>
      <link>https://hsteve.tistory.com</link>
    </image>
    <item>
      <title>[2일차] 문장을 작은 단위로 쪼개기</title>
      <link>https://hsteve.tistory.com/755</link>
      <description>&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&amp;lt; 문장을 작은 단위로 쪼개기 &amp;gt;&lt;br&gt;2-1. 토큰화(Tokenization)란?&lt;br&gt;2-2. 바이트 페어 인코딩이란?&lt;br&gt;2-3. 어휘 집합 구축&lt;br&gt;2-4. 토큰화하기&lt;br&gt;&lt;br&gt;==========&lt;br&gt;&lt;br&gt;&lt;/p&gt;&lt;h3 style=&quot;text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;2-1. 토큰화(Tokenization)란?&lt;/h3&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;# 토큰화&lt;br&gt; - 문장을 토큰 시퀀스로 나누는 과정&lt;br&gt; - 문자, 단어, 서브워드 등 세 가지 방법이 있음.&lt;br&gt; - 문자 단위 토큰화는 어휘 집합의 크기가 매우 커질 수 있는 단점이 있고,&lt;br&gt;&amp;nbsp;&amp;nbsp; 단어 단위 토큰화는 각 문자 토큰이 의미 있는 단위가 되기 어려운 단점이 있음.&lt;br&gt; - 대표적인 서브워드 단위 토큰화는 바이트 페어 인코딩이 있음.&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt;&lt;h3 style=&quot;text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;2-2. 바이트 페어 인코딩&lt;/h3&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;# GPT는 BPE방식을 쓰고, BERT는 BPE와 유사 방식인 워드피스(wordpiece)를 토크나이저로 사용함.&lt;br&gt;# 바이트 페어 인코딩(Byte Pair Encoding; BPE)&lt;br&gt; - 원래 정보 압축하는 알고리즘으로 제안되었었음.&lt;br&gt; - 바이트 페어 인코딩(BPE)은 사전 크기 증가를 억제하면서 동시에 정보를 효율적으로 압축할 수 있는 알고리즘.&lt;br&gt;&amp;nbsp;&amp;nbsp; =&amp;gt; 프리토크나이즈(pre-tokenize) 후 바이그램(bigram)씩 묶어 빈도수를 합쳐줌&lt;br&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;(”BPE 어휘 집합은 고빈도 바이그램 쌍을 병합하는 방식으로 구축“)&lt;br&gt;# 워드피스(Wordpiece)&lt;br&gt; - 워드피스는 우도를 가장 높이는 글자 쌍을 병합함.&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt;&lt;h3 style=&quot;text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;3-3. 어휘 집합 구축 &lt;/h3&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;# BPE기반 토크나이저 만들기(for GPT)&lt;/p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;1306&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/JBpyO/btstKY7bzeb/khLweofWUKezl3a096i0iK/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/JBpyO/btstKY7bzeb/khLweofWUKezl3a096i0iK/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/JBpyO/btstKY7bzeb/khLweofWUKezl3a096i0iK/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FJBpyO%2FbtstKY7bzeb%2FkhLweofWUKezl3a096i0iK%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2048&quot; height=&quot;1306&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;1306&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;362&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/binsfM/btstMjpy6Ao/1lNiPdvqYRcznBPdG2Hjl0/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/binsfM/btstMjpy6Ao/1lNiPdvqYRcznBPdG2Hjl0/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/binsfM/btstMjpy6Ao/1lNiPdvqYRcznBPdG2Hjl0/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbinsfM%2FbtstMjpy6Ao%2F1lNiPdvqYRcznBPdG2Hjl0%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2048&quot; height=&quot;362&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;362&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;353&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/m0vuU/btstM1vqwP8/08uR9xT17X6Fd4U7YsMKU0/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/m0vuU/btstM1vqwP8/08uR9xT17X6Fd4U7YsMKU0/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/m0vuU/btstM1vqwP8/08uR9xT17X6Fd4U7YsMKU0/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fm0vuU%2FbtstM1vqwP8%2F08uR9xT17X6Fd4U7YsMKU0%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2048&quot; height=&quot;353&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;353&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;357&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/7rweM/btstC1i0KIk/akut6vMqYZFzRDsrxdpqp1/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/7rweM/btstC1i0KIk/akut6vMqYZFzRDsrxdpqp1/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/7rweM/btstC1i0KIk/akut6vMqYZFzRDsrxdpqp1/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F7rweM%2FbtstC1i0KIk%2Fakut6vMqYZFzRDsrxdpqp1%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2048&quot; height=&quot;357&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;357&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;1070&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/1roKB/btstM28Xtmk/3ZopFXQdVOWRmHaue51wCk/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/1roKB/btstM28Xtmk/3ZopFXQdVOWRmHaue51wCk/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/1roKB/btstM28Xtmk/3ZopFXQdVOWRmHaue51wCk/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2F1roKB%2FbtstM28Xtmk%2F3ZopFXQdVOWRmHaue51wCk%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2048&quot; height=&quot;1070&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;1070&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;# 워드피스기반 토크나이저 만들기(for BERT)&lt;/p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;593&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/nv0r8/btstxpZCC4g/fdKl2H3qNZLk6SK14knSu1/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/nv0r8/btstxpZCC4g/fdKl2H3qNZLk6SK14knSu1/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/nv0r8/btstxpZCC4g/fdKl2H3qNZLk6SK14knSu1/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fnv0r8%2FbtstxpZCC4g%2FfdKl2H3qNZLk6SK14knSu1%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2048&quot; height=&quot;593&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;593&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;&lt;/p&gt;&lt;h3 style=&quot;text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;3-4. 토큰화하기&lt;/h3&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;# GPT 입력값 만들기&lt;/p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;862&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/c39bjG/btstHZZtOO6/hxXDELpKc9Q1surGKpndN1/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/c39bjG/btstHZZtOO6/hxXDELpKc9Q1surGKpndN1/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/c39bjG/btstHZZtOO6/hxXDELpKc9Q1surGKpndN1/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fc39bjG%2FbtstHZZtOO6%2FhxXDELpKc9Q1surGKpndN1%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2048&quot; height=&quot;862&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;862&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;&lt;br&gt;# BERT 입력값 만들기&lt;/p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;776&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cycjpp/btstyi6FlwM/CkMzXnKpORVHelo8hAU1W1/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cycjpp/btstyi6FlwM/CkMzXnKpORVHelo8hAU1W1/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cycjpp/btstyi6FlwM/CkMzXnKpORVHelo8hAU1W1/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fcycjpp%2Fbtstyi6FlwM%2FCkMzXnKpORVHelo8hAU1W1%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;2048&quot; height=&quot;776&quot; data-origin-width=&quot;2048&quot; data-origin-height=&quot;776&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt;</description>
      <category>AI/Do It 공부단_자연어처리</category>
      <category>bert</category>
      <category>GPT</category>
      <category>자연어</category>
      <category>토큰화</category>
      <author>moviewine</author>
      <guid isPermaLink="true">https://hsteve.tistory.com/755</guid>
      <comments>https://hsteve.tistory.com/755#entry755comment</comments>
      <pubDate>Mon, 11 Sep 2023 09:31:38 +0900</pubDate>
    </item>
    <item>
      <title>[1일차] 처음 만나는 자연어처리</title>
      <link>https://hsteve.tistory.com/750</link>
      <description>&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;[ 1일차(처음 만나는 자연어처리) 목록 ]&lt;br&gt;1-1. 딥러닝 기반 자연어 처리 모델&lt;br&gt;1-2. 트랜스퍼 러닝&lt;br&gt;1-3. 학습 파이프라인&lt;br&gt;1-4. 개발 환경 설정&lt;br&gt;&lt;br&gt;==========&lt;br&gt;&lt;br&gt;&lt;/p&gt;&lt;h3 style=&quot;text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;1-1. 딥러닝 기반 자연어 처리 모델(p.12 ~ 16)&lt;/h3&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;1) 이론&lt;br&gt;&lt;br&gt; # 기계의 자연어 처리: &lt;b&gt;입력 &amp;gt; 모델(함수) &amp;gt; 출력(확률)&lt;/b&gt;&lt;br&gt;&amp;nbsp;&amp;nbsp;- 예시:&lt;br&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;[ 입력(자연어) &amp;gt; 출력(확률) &amp;gt; 후처리 ]&lt;br&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;재미없는 편인 영화에요 &amp;gt; [0.0, 0.3, 0.7]: 긍정, 중립, 부정 &amp;gt; 부정(negative)&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&lt;br&gt;&amp;nbsp;&amp;nbsp;- 딥러닝도 모델! (Hidden layer를 사용하는 모델)&lt;br&gt;&amp;nbsp;&amp;nbsp;- 모델을 만드려면 데이터가 필요하며, 이 데이터는 &lt;b&gt;라벨링(labeling)&lt;/b&gt;으로 확보 =&amp;gt; &lt;b&gt;training&lt;/b&gt; (labeling된 데이터의 패턴을 모델이 익히게 함)&lt;br&gt;&amp;nbsp;&amp;nbsp;- 자연어 처리 관련해 &lt;b&gt;BERT&lt;/b&gt;(Bidirectional Encoder Representations from Transformer), &lt;b&gt;GPT&lt;/b&gt;(Generative Pre-trained Transformer)가 주목&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt;&lt;h3 style=&quot;text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;1-2. 트랜스퍼 러닝&lt;/h3&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;1) 이론&lt;br&gt;&lt;br&gt;# &lt;b&gt;트랜스퍼러닝(Transfer learning)&lt;/b&gt;: 특정 task를 작업한 학습모델을 다른 task에 재사용하는 기법 (knowledge transfer)&lt;br&gt;&lt;br&gt;&amp;nbsp;&amp;nbsp;- 모델 학습 속도가 빨라지고 + 새로운 테스크(downstream task)를 더 잘 맞춤.&lt;br&gt;&amp;nbsp;&amp;nbsp;- 재사용한 모델에 데이터만 새로 추가&lt;br&gt;&amp;nbsp;&amp;nbsp; 데이터1 &amp;gt; “모델” &amp;gt; 테스크1(&lt;b&gt;upstream task&lt;/b&gt;) ==&amp;gt; &lt;b&gt;프리트레인(pretrain)&lt;/b&gt;&lt;br&gt;&amp;nbsp;&amp;nbsp; 데이터2 &amp;gt; “모델” &amp;gt; 테스크2(&lt;b&gt;downstream task&lt;/b&gt;)&lt;br&gt;&lt;br&gt;&amp;nbsp;&amp;nbsp;- Pretrain에서 자연어의 풍부한&lt;b&gt; 문맥(context)&lt;/b&gt;을 모델에 내재화 하고 downstream task에서 활용해 성능을 끌어올림.&lt;br&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;=&amp;gt; 언어 모델(Language Model)&lt;br&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;=&amp;gt;&lt;b&gt; GPT&lt;/b&gt;의 pretrain 중 하나는 “단어 맞추기”&lt;br&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;=&amp;gt; &lt;b&gt;BERT&lt;/b&gt;의 pretrain 중 하나는 “빈칸 채우기“ =&amp;gt; &lt;b&gt;마스크 언어 모델(Masked Language Model)&lt;/b&gt;&lt;br&gt;&lt;br&gt;&amp;nbsp;&amp;nbsp;- Pretrain에서 사람의 수작업 없이 다량의 학습데이터 내에서 정답을 만들고 + 모델을 학습하는 방법 &lt;br&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; =&amp;gt; &lt;b&gt;자기지도학습(self-supervised learning)&lt;/b&gt;&lt;br&gt;&amp;nbsp;&amp;nbsp; (아래는 자기지도학습과 준지도학습, 비지도학습의 차이를 비교한 것. 출처: Bard) =&amp;gt; label이 지정되었는 지 유무에 따라 준지도학습과 구분됨.&lt;/p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1158&quot; data-origin-height=&quot;829&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bidHJU/btstmIc9xbk/v3jQBq5bHVQOQDKgbB8WlK/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bidHJU/btstmIc9xbk/v3jQBq5bHVQOQDKgbB8WlK/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bidHJU/btstmIc9xbk/v3jQBq5bHVQOQDKgbB8WlK/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FbidHJU%2FbtstmIc9xbk%2Fv3jQBq5bHVQOQDKgbB8WlK%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1158&quot; height=&quot;829&quot; data-origin-width=&quot;1158&quot; data-origin-height=&quot;829&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1131&quot; data-origin-height=&quot;856&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/WpVvu/btstkWbWf0P/u32IxRcqPCfMMyK4JCOZKk/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/WpVvu/btstkWbWf0P/u32IxRcqPCfMMyK4JCOZKk/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/WpVvu/btstkWbWf0P/u32IxRcqPCfMMyK4JCOZKk/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FWpVvu%2FbtstkWbWf0P%2Fu32IxRcqPCfMMyK4JCOZKk%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1131&quot; height=&quot;856&quot; data-origin-width=&quot;1131&quot; data-origin-height=&quot;856&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;&lt;br&gt; # 파인 튜닝(Fine-tuning)&lt;br&gt;&lt;br&gt;&amp;nbsp;&amp;nbsp;- 자연어처리의 궁극적 목표는 downstream task (예: classification)&lt;br&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;=&amp;gt; Downstream task는 &lt;b&gt;파인 튜닝(Fine-tuning)&lt;/b&gt;을 통해 학습&lt;br&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;=&amp;gt; Fine-tuning: Pretrain을 마친 모델을 downstream task에 맞게 UPDATE !&lt;br&gt;&amp;nbsp;&amp;nbsp;&lt;br&gt;&amp;nbsp;&amp;nbsp;- 문서 분류: 문서나 문장을 입력받아 어떤 범주에 속하는 지 확률값 반환&lt;br&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;.여기서 각각 문장의 시작과 끝에 CLS, SEP라는 특수한 토큰(token)을 붙는데, 토큰 및 토큰화(tokenizeation)에 대한 이해가 필요.&lt;br&gt;&lt;br&gt;&amp;nbsp;&amp;nbsp;- 자연어 추론: 문장 2개를 입력받아 두 문장 사이 관계가 참(entailment) or 거짓(contradiction) or 중립(neutral) 인지 확률값 반환&lt;br&gt;&lt;br&gt;&amp;nbsp;&amp;nbsp;- 개체명 인식: 문서나 문장을 입력받아 단어 별로 기관명, 인명, 지명 등 어떤 개체의 범주에 속하는 지 확률값 반환&lt;br&gt;&lt;br&gt;&amp;nbsp;&amp;nbsp;- 질의 응답: 질문과 지문을 입력받아 각 단어가 정답의 시작일 확률값과 끝일 확률값을 반환&lt;br&gt;&lt;br&gt;&amp;nbsp;&amp;nbsp;- 문장 생성: 문장을 입력받아 어휘 전체에 대한 확률값 반환&lt;br&gt;&lt;br&gt;&lt;br&gt; # 파인튜닝 외 학습방법&lt;br&gt;&lt;br&gt;&amp;nbsp;&amp;nbsp;1) &lt;b&gt;프롬프트 튜닝(prompt tuning)&lt;/b&gt;: 다운태스크 데이터 전체 사용. 모델 일부 업데이트.&lt;br&gt;&amp;nbsp;&amp;nbsp;2) &lt;b&gt;인컨텍스트 러닝(in-context learning)&lt;/b&gt;: 다운태스크 데이터 일부만 사용. 모델 업데이트 하지 않음.&lt;br&gt;&amp;nbsp;&amp;nbsp;3)&lt;b&gt; 제로샷 러닝(zero-shot learning)&lt;/b&gt;: 다운태스크 데이터 사용 안함. 모델이 바로 다운태스크 수행.&lt;br&gt;&amp;nbsp;&amp;nbsp;4) &lt;b&gt;원샷 러닝(one-shot learning)&lt;/b&gt;: 다운태스크 데이터 1개만 사용. 이후 모델이 다운태스크에 수행 될지 여부 결정.&lt;br&gt;&amp;nbsp;&amp;nbsp;5) &lt;b&gt;퓨샷 러닝(few-shot learning)&lt;/b&gt; : 다운태스크 데이터 몇 개만 사용. 이후 모델이 다운태스크에 수행 될지 여부 결정.&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt;&lt;h3 style=&quot;text-align: left;&quot; data-ke-size=&quot;size23&quot;&gt;1-3. 학습 파이프라인&lt;/h3&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;&amp;nbsp;&amp;nbsp;1) 오픈소스 파이썬 패키지(ratsnlp: github.cm/ratsgo/tartsnlp)&lt;br&gt;&amp;nbsp;&amp;nbsp; - 설정값: Pretrain model, Dataset, 저장소, Hyper-parameter&lt;br&gt;&lt;br&gt;&amp;nbsp;&amp;nbsp;2) 설정값 선언&lt;br&gt;&amp;nbsp;&amp;nbsp;3) 데이터 다운로드&lt;br&gt;&amp;nbsp;&amp;nbsp;4) 모델 준비 =&amp;gt; 이 단계에서 kcbert-base 모델이 hugging face로부터 내려받아지지 않아 오류가 발생했습니다(추후 다시 시도 예정).&lt;br&gt;&amp;nbsp;&amp;nbsp;5) 토크나이저 준비&lt;br&gt;&amp;nbsp;&amp;nbsp;6) 데이터 로더 준비&lt;br&gt;&amp;nbsp;&amp;nbsp;7) 태스크 정의&lt;br&gt;&amp;nbsp;&amp;nbsp;8) 모델 학습&lt;br&gt;&lt;br&gt;&lt;/p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1921&quot; data-origin-height=&quot;1064&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/bn3RHG/btstmHeMChp/xDkF7VqWkDkxla5ncXQG8k/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/bn3RHG/btstmHeMChp/xDkF7VqWkDkxla5ncXQG8k/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/bn3RHG/btstmHeMChp/xDkF7VqWkDkxla5ncXQG8k/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fbn3RHG%2FbtstmHeMChp%2FxDkF7VqWkDkxla5ncXQG8k%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1921&quot; height=&quot;1064&quot; data-origin-width=&quot;1921&quot; data-origin-height=&quot;1064&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1908&quot; data-origin-height=&quot;857&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/cdb2YH/btstmtOqYVl/R8laFrqxpILOHJKJusTCX0/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/cdb2YH/btstmtOqYVl/R8laFrqxpILOHJKJusTCX0/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/cdb2YH/btstmtOqYVl/R8laFrqxpILOHJKJusTCX0/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2Fcdb2YH%2FbtstmtOqYVl%2FR8laFrqxpILOHJKJusTCX0%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1908&quot; height=&quot;857&quot; data-origin-width=&quot;1908&quot; data-origin-height=&quot;857&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt;</description>
      <category>AI/Do It 공부단_자연어처리</category>
      <category>bert</category>
      <category>Do It!</category>
      <category>GPT</category>
      <category>모델</category>
      <category>자연어</category>
      <author>moviewine</author>
      <guid isPermaLink="true">https://hsteve.tistory.com/750</guid>
      <comments>https://hsteve.tistory.com/750#entry750comment</comments>
      <pubDate>Fri, 8 Sep 2023 09:17:46 +0900</pubDate>
    </item>
    <item>
      <title>(스크랩) AI 특허분류</title>
      <link>https://hsteve.tistory.com/744</link>
      <description>&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;a href=&quot;https://m.mt.co.kr/renew/view_amp.html?no=2021112406263133425&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;&lt;/span&gt;&lt;/a&gt;&lt;a href=&quot;https://m.mt.co.kr/renew/view_amp.html?no=2021112406263133425&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;https://m.mt.co.kr/renew/view_amp.html?no=2021112406263133425&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;&lt;figure data-ke-type=&quot;opengraph&quot; data-og-title=&quot;100일 걸리는 특허분류, 'AI 변리사 비서'가 수일내 끝낸다 - 머니투데이&quot; data-ke-align=&quot;alignCenter&quot; data-og-description=&quot;워트인텔리전스, 세계 첫 AI 특허언어모델 '펫버트'(PAT-BERT) 개발…국내외 2100만건 특허데이터 학습특허검색엔진 &amp;quot;키워트&amp;quot;를 운영 중인 워트인텔리전스가 AI(인공지능) 특허언어모델 &amp;quot;펫버트&amp;quot;(PAT-B&quot; data-og-host=&quot;news.mt.co.kr&quot; data-og-source-url=&quot;https://m.mt.co.kr/renew/view_amp.html?no=2021112406263133425&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/cnDzs8/hyTPu7OCsw/UCxikW6uh5AgCST4fl2Mo1/img.jpg?width=560&amp;amp;height=88&amp;amp;face=0_0_560_88&quot; data-og-url=&quot;https://news.mt.co.kr/mtview.php?no=2021112406263133425&quot;&gt;&lt;a href=&quot;https://news.mt.co.kr/mtview.php?no=2021112406263133425&quot; target=&quot;_blank&quot; data-source-url=&quot;https://m.mt.co.kr/renew/view_amp.html?no=2021112406263133425&quot;&gt;&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/cnDzs8/hyTPu7OCsw/UCxikW6uh5AgCST4fl2Mo1/img.jpg?width=560&amp;amp;height=88&amp;amp;face=0_0_560_88')&quot;&gt; &lt;/div&gt;&lt;div class=&quot;og-text&quot;&gt;&lt;p class=&quot;og-title&quot;&gt;100일 걸리는 특허분류, 'AI 변리사 비서'가 수일내 끝낸다 - 머니투데이&lt;/p&gt;&lt;p class=&quot;og-desc&quot;&gt;워트인텔리전스, 세계 첫 AI 특허언어모델 '펫버트'(PAT-BERT) 개발…국내외 2100만건 특허데이터 학습특허검색엔진 &quot;키워트&quot;를 운영 중인 워트인텔리전스가 AI(인공지능) 특허언어모델 &quot;펫버트&quot;(PAT-B&lt;/p&gt;&lt;p class=&quot;og-host&quot;&gt;news.mt.co.kr&lt;/p&gt;&lt;/div&gt;&lt;/a&gt;&lt;/figure&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;/p&gt;</description>
      <category>AI/LLM</category>
      <author>moviewine</author>
      <guid isPermaLink="true">https://hsteve.tistory.com/744</guid>
      <comments>https://hsteve.tistory.com/744#entry744comment</comments>
      <pubDate>Thu, 7 Sep 2023 11:01:22 +0900</pubDate>
    </item>
    <item>
      <title>[고급-교육] LLM Papers &amp;amp; Github Lists</title>
      <link>https://hsteve.tistory.com/742</link>
      <description>&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;b&gt;# Basic Sources&lt;/b&gt;&lt;b&gt;&lt;br&gt;&lt;/b&gt;&lt;a href=&quot;https://github.com/mlabonne/llm-course&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;https://github.com/mlabonne/llm-course&lt;/span&gt;&lt;/a&gt;&lt;br&gt;&lt;b&gt;&lt;br&gt;&lt;/b&gt;&lt;b&gt;# Foundation Model&lt;/b&gt;&lt;br&gt;&lt;br&gt;&lt;a href=&quot;https://github.com/Beomi/KoAlpaca&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;https://github.com/Beomi/KoAlpaca&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;&lt;figure data-ke-type=&quot;opengraph&quot; data-og-title=&quot;GitHub - Beomi/KoAlpaca: KoAlpaca: 한국어 명령어를 이해하는 오픈소스 언어모델&quot; data-ke-align=&quot;alignCenter&quot; data-og-description=&quot;KoAlpaca: 한국어 명령어를 이해하는 오픈소스 언어모델. Contribute to Beomi/KoAlpaca development by creating an account on GitHub.&quot; data-og-host=&quot;github.com&quot; data-og-source-url=&quot;https://github.com/Beomi/KoAlpaca&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/chm1ti/hyTSAk0cym/jdKdHN6EKuo7XvE7IYAb30/img.png?width=1200&amp;amp;height=600&amp;amp;face=995_116_1040_164&quot; data-og-url=&quot;https://github.com/Beomi/KoAlpaca&quot;&gt;&lt;a href=&quot;https://github.com/Beomi/KoAlpaca&quot; target=&quot;_blank&quot; data-source-url=&quot;https://github.com/Beomi/KoAlpaca&quot;&gt;&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/chm1ti/hyTSAk0cym/jdKdHN6EKuo7XvE7IYAb30/img.png?width=1200&amp;amp;height=600&amp;amp;face=995_116_1040_164')&quot;&gt; &lt;/div&gt;&lt;div class=&quot;og-text&quot;&gt;&lt;p class=&quot;og-title&quot;&gt;GitHub - Beomi/KoAlpaca: KoAlpaca: 한국어 명령어를 이해하는 오픈소스 언어모델&lt;/p&gt;&lt;p class=&quot;og-desc&quot;&gt;KoAlpaca: 한국어 명령어를 이해하는 오픈소스 언어모델. Contribute to Beomi/KoAlpaca development by creating an account on GitHub.&lt;/p&gt;&lt;p class=&quot;og-host&quot;&gt;github.com&lt;/p&gt;&lt;/div&gt;&lt;/a&gt;&lt;/figure&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;b&gt;# PEFT(Parameter Efficient Fine-Tuning)&lt;/b&gt;&lt;br&gt;&lt;br&gt;&lt;a href=&quot;https://github.com/tloen/alpaca-lora&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;https://github.com/tloen/alpaca-lora&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;&lt;figure data-ke-type=&quot;opengraph&quot; data-og-title=&quot;GitHub - tloen/alpaca-lora: Instruct-tune LLaMA on consumer hardware&quot; data-ke-align=&quot;alignCenter&quot; data-og-description=&quot;Instruct-tune LLaMA on consumer hardware. Contribute to tloen/alpaca-lora development by creating an account on GitHub.&quot; data-og-host=&quot;github.com&quot; data-og-source-url=&quot;https://github.com/tloen/alpaca-lora&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/bgPGmz/hyTPyoNqUm/oCLvJ23wnT49FxIuag86w1/img.png?width=1200&amp;amp;height=600&amp;amp;face=0_0_1200_600&quot; data-og-url=&quot;https://github.com/tloen/alpaca-lora&quot;&gt;&lt;a href=&quot;https://github.com/tloen/alpaca-lora&quot; target=&quot;_blank&quot; data-source-url=&quot;https://github.com/tloen/alpaca-lora&quot;&gt;&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/bgPGmz/hyTPyoNqUm/oCLvJ23wnT49FxIuag86w1/img.png?width=1200&amp;amp;height=600&amp;amp;face=0_0_1200_600')&quot;&gt; &lt;/div&gt;&lt;div class=&quot;og-text&quot;&gt;&lt;p class=&quot;og-title&quot;&gt;GitHub - tloen/alpaca-lora: Instruct-tune LLaMA on consumer hardware&lt;/p&gt;&lt;p class=&quot;og-desc&quot;&gt;Instruct-tune LLaMA on consumer hardware. Contribute to tloen/alpaca-lora development by creating an account on GitHub.&lt;/p&gt;&lt;p class=&quot;og-host&quot;&gt;github.com&lt;/p&gt;&lt;/div&gt;&lt;/a&gt;&lt;/figure&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;b&gt;# Evaluation Metrics&lt;/b&gt;&lt;br&gt;&lt;br&gt;&lt;a href=&quot;https://github.com/nlpai-lab/KULLM&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;https://github.com/nlpai-lab/KULLM&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;&lt;figure data-ke-type=&quot;opengraph&quot; data-og-title=&quot;GitHub - nlpai-lab/KULLM: ☁️ 구름(KULLM):  고려대학교에서 개발한, 한국어에 특화된 LLM&quot; data-ke-align=&quot;alignCenter&quot; data-og-description=&quot;☁️ 구름(KULLM): 고려대학교에서 개발한, 한국어에 특화된 LLM. Contribute to nlpai-lab/KULLM development by creating an account on GitHub.&quot; data-og-host=&quot;github.com&quot; data-og-source-url=&quot;https://github.com/nlpai-lab/KULLM&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/mQM0p/hyTPEP61I0/XfAWDcKYxol33Dhkxwihsk/img.png?width=1200&amp;amp;height=600&amp;amp;face=0_0_1200_600&quot; data-og-url=&quot;https://github.com/nlpai-lab/KULLM&quot;&gt;&lt;a href=&quot;https://github.com/nlpai-lab/KULLM&quot; target=&quot;_blank&quot; data-source-url=&quot;https://github.com/nlpai-lab/KULLM&quot;&gt;&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/mQM0p/hyTPEP61I0/XfAWDcKYxol33Dhkxwihsk/img.png?width=1200&amp;amp;height=600&amp;amp;face=0_0_1200_600')&quot;&gt; &lt;/div&gt;&lt;div class=&quot;og-text&quot;&gt;&lt;p class=&quot;og-title&quot;&gt;GitHub - nlpai-lab/KULLM: ☁️ 구름(KULLM):&amp;nbsp;&amp;nbsp;고려대학교에서 개발한, 한국어에 특화된 LLM&lt;/p&gt;&lt;p class=&quot;og-desc&quot;&gt;☁️ 구름(KULLM): 고려대학교에서 개발한, 한국어에 특화된 LLM. Contribute to nlpai-lab/KULLM development by creating an account on GitHub.&lt;/p&gt;&lt;p class=&quot;og-host&quot;&gt;github.com&lt;/p&gt;&lt;/div&gt;&lt;/a&gt;&lt;/figure&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;/p&gt;</description>
      <category>AI/LLM</category>
      <author>moviewine</author>
      <guid isPermaLink="true">https://hsteve.tistory.com/742</guid>
      <comments>https://hsteve.tistory.com/742#entry742comment</comments>
      <pubDate>Thu, 7 Sep 2023 09:54:14 +0900</pubDate>
    </item>
    <item>
      <title>일반 상대성 이론</title>
      <link>https://hsteve.tistory.com/741</link>
      <description>&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;# 출처: BARD&lt;br&gt;&lt;br&gt;일반 상대성 이론은 알베르트 아인슈타인이 1915년에 발표한 중력의 상대론적 이론입니다. 뉴턴의 중력 법칙을 일반화한 이론으로, 중력을 시공간의 곡률로 설명합니다.&lt;br&gt;&lt;br&gt;일반 상대성 이론의 기본 개념은 다음과 같습니다.&lt;br&gt;&lt;br&gt;* **등가 원리**&lt;br&gt;&lt;br&gt;등가 원리란, 주어진 중력장에서 모든 입자는 질량, 부피, 전하 등 그 성질에 상관없이 똑같이 떨어진다는 원리입니다. 이 원리에 따르면, 중력은 물체에 가하는 힘이 아니라, 시공간의 곡률에 의해 생기는 현상입니다.&lt;br&gt;&lt;br&gt;* **시공간의 곡률**&lt;br&gt;&lt;br&gt;시공간은 시간과 공간의 통합된 개념으로, 일반 상대성 이론에서 중력의 매개체 역할을 합니다. 중력이 강할수록 시공간은 휘어지고, 약할수록 휘어짐이 적습니다.&lt;br&gt;&lt;br&gt;* **중력파**&lt;br&gt;&lt;br&gt;중력파는 중력의 전파를 나타내는 파동입니다. 일반 상대성 이론에 따르면, 중력은 시공간의 곡률로 나타나며, 이 곡률은 시공간의 곡률을 변화시키는 사건에 의해 전파됩니다.&lt;br&gt;&lt;br&gt;일반 상대성 이론은 많은 관측 결과와 실험 결과와 일치함으로써 그 타당성을 인정받고 있습니다. 예를 들어, 일반 상대성 이론은 수성의 근일점 이동, 태양에 의한 별빛의 굴절, 중력렌즈 현상 등을 예측했으며, 이러한 예측은 모두 관측 결과와 일치했습니다. 또한, 중력파의 존재는 2015년에 LIGO 실험을 통해 직접 관측되었는데, 이 관측 결과 역시 일반 상대성 이론과 일치했습니다.&lt;br&gt;&lt;br&gt;일반 상대성 이론은 현대 물리학의 두 기둥 중 하나로, 천체물리학과 우주론 분야에서 중요한 역할을 하고 있습니다. 또한, 일반 상대성 이론은 암흑물질과 암흑에너지의 존재를 설명하는 데에도 중요한 역할을 할 것으로 기대되고 있습니다.&lt;br&gt;&lt;br&gt;일반 상대성 이론의 주요 업적은 다음과 같습니다.&lt;br&gt;&lt;br&gt;* 뉴턴의 중력 법칙을 일반화하여 중력의 근본적인 특성을 이해하는 데 기여했습니다.&lt;br&gt;* 중력파의 존재를 예측하여, 2015년에 LIGO 실험을 통해 직접 관측되었습니다.&lt;br&gt;* 블랙홀과 중성자별의 존재를 예측했습니다.&lt;br&gt;* 우주론의 발전에 기여했습니다.&lt;br&gt;&lt;br&gt;일반 상대성 이론은 아직까지 완전한 이론은 아닙니다. 양자역학과 일반 상대성 이론을 통합하는 양자 중력이론을 완성하기 위한 노력이 계속되고 있습니다.&lt;br&gt;&lt;br&gt;==========&lt;br&gt;&lt;br&gt;일반 상대성 이론은 알베르트 아인슈타인이 1915년에 발표한, 중력을 상대론적으로 다루는 물리학 이론입니다. 특수 상대성 이론과 함께 현대 물리학의 두 기둥을 형성하고 있습니다.&lt;br&gt;&lt;br&gt;일반 상대성 이론은 등가 원리를 통해 중력이 시공간의 곡률에 의한 것이라는 결론을 이끌어냅니다. 등가 원리에 따르면, 주어진 중력장에서 모든 입자는 질량, 부피, 전하 등 그 성질에 상관없이 똑같이 떨어집니다. 이는 가속도가 중력과 구별할 수 없는 것이라는 것을 의미합니다.&lt;br&gt;&lt;br&gt;일반 상대성 이론은 시공간의 곡률을 기술하기 위해 리만 기하학을 사용합니다. 리만 기하학에서는 시공간이 4차원이며, 곡률은 시공간의 휘어짐을 나타냅니다. 중력이 강한 곳에서는 시공간이 더 많이 휘어지고, 중력이 약한 곳에서는 시공간이 덜 휘어집니다.&lt;br&gt;&lt;br&gt;일반 상대성 이론은 다양한 천문 관측 결과와 일치하는 것으로 밝혀졌습니다. 예를 들어, 수성의 근일점 이동, 태양에 의한 별빛의 굴절, 중력파의 존재, 블랙홀의 존재 등이 일반 상대성 이론으로 설명됩니다.&lt;br&gt;&lt;br&gt;일반 상대성 이론은 우주론에도 중요한 역할을 합니다. 일반 상대성 이론에 따르면, 우주는 팽창하고 있으며, 팽창 속도는 점점 빨라지고 있습니다. 또한, 우주에는 암흑 물질과 암흑 에너지가 존재한다고 예측합니다.&lt;br&gt;&lt;br&gt;일반 상대성 이론은 아직까지도 완벽한 이론은 아닙니다. 특히, 양자역학과 일반 상대성 이론을 통합하는 것은 물리학계의 오랜 과제입니다.&lt;br&gt;&lt;br&gt;일반 상대성 이론의 주요 내용은 다음과 같습니다.&lt;br&gt;&lt;br&gt;중력은 시공간의 곡률에 의한 것입니다.&lt;br&gt;중력이 강한 곳에서는 시공간이 더 많이 휘어집니다.&lt;br&gt;시공간은 4차원이며, 곡률은 시공간의 휘어짐을 나타냅니다.&lt;br&gt;일반 상대성 이론은 다양한 천문 관측 결과와 일치합니다.&lt;br&gt;일반 상대성 이론은 우주론에도 중요한 역할을 합니다.&lt;br&gt;일반 상대성 이론은 물리학의 가장 중요한 이론 중 하나이며, 우주에 대한 우리의 이해를 크게 발전시켰습니다.&lt;/p&gt;</description>
      <category>Science &amp;amp; Engineering/Physics &amp;amp; Mathematics</category>
      <author>moviewine</author>
      <guid isPermaLink="true">https://hsteve.tistory.com/741</guid>
      <comments>https://hsteve.tistory.com/741#entry741comment</comments>
      <pubDate>Thu, 7 Sep 2023 09:10:17 +0900</pubDate>
    </item>
    <item>
      <title>[기본-교육] ChatGPT 구분</title>
      <link>https://hsteve.tistory.com/726</link>
      <description>&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;# 출처: &lt;a href=&quot;https://naver.me/xWBcWoNB&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;https://naver.me/xWBcWoNB&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;&lt;figure data-ke-type=&quot;opengraph&quot; data-og-title=&quot;[AI혁명](60)&amp;quot;A+리포트, AI가 썼군요&amp;quot;…챗GPT 잡는 '킬러' 나온다&quot; data-ke-align=&quot;alignCenter&quot; data-og-description=&quot;챗GPT 붐 이후 대학가 첫 개강을 맞은 지난 3월. 인공지능(AI) 기술 기업 무하유 고객센터 전화에 불이 났다. 아무래도 챗GPT가 대필한 과제를 제출한 것 같은데 문제 삼을 근거가 없어 골치라는 전&quot; data-og-host=&quot;n.news.naver.com&quot; data-og-source-url=&quot;https://naver.me/xWBcWoNB&quot; data-og-image=&quot;https://scrap.kakaocdn.net/dn/jYuTY/hyTL7SoU2G/n5swHRlkhxuMIhZIsI7Ifk/img.png?width=616&amp;amp;height=370&amp;amp;face=0_0_616_370&quot; data-og-url=&quot;https://n.news.naver.com/mnews/hotissue/article/277/0005307877?cid=2000451&quot;&gt;&lt;a href=&quot;https://n.news.naver.com/mnews/hotissue/article/277/0005307877?cid=2000451&quot; target=&quot;_blank&quot; data-source-url=&quot;https://naver.me/xWBcWoNB&quot;&gt;&lt;div class=&quot;og-image&quot; style=&quot;background-image: url('https://scrap.kakaocdn.net/dn/jYuTY/hyTL7SoU2G/n5swHRlkhxuMIhZIsI7Ifk/img.png?width=616&amp;amp;height=370&amp;amp;face=0_0_616_370')&quot;&gt; &lt;/div&gt;&lt;div class=&quot;og-text&quot;&gt;&lt;p class=&quot;og-title&quot;&gt;[AI혁명](60)&quot;A+리포트, AI가 썼군요&quot;…챗GPT 잡는 '킬러' 나온다&lt;/p&gt;&lt;p class=&quot;og-desc&quot;&gt;챗GPT 붐 이후 대학가 첫 개강을 맞은 지난 3월. 인공지능(AI) 기술 기업 무하유 고객센터 전화에 불이 났다. 아무래도 챗GPT가 대필한 과제를 제출한 것 같은데 문제 삼을 근거가 없어 골치라는 전&lt;/p&gt;&lt;p class=&quot;og-host&quot;&gt;n.news.naver.com&lt;/p&gt;&lt;/div&gt;&lt;/a&gt;&lt;/figure&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;/p&gt;</description>
      <category>AI/Generative AI</category>
      <author>moviewine</author>
      <guid isPermaLink="true">https://hsteve.tistory.com/726</guid>
      <comments>https://hsteve.tistory.com/726#entry726comment</comments>
      <pubDate>Sat, 2 Sep 2023 01:08:26 +0900</pubDate>
    </item>
    <item>
      <title>[고급-모델] LLaMA &amp;amp; LLaMA2 소개</title>
      <link>https://hsteve.tistory.com/725</link>
      <description>&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;1. LLaMA code review&lt;br&gt;# 출처:&lt;br&gt;&lt;a href=&quot;https://youtube.com/watch?v=jvYpv0VJBOA&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;https://youtube.com/watch?v=jvYpv0VJBOA&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;&lt;figure data-ke-type=&quot;opengraph&quot; data-og-title=&quot;- YouTube&quot; data-ke-align=&quot;alignCenter&quot; data-og-description=&quot;&quot; data-og-host=&quot;www.youtube.com&quot; data-og-source-url=&quot;https://www.youtube.com/watch?v=jvYpv0VJBOA&quot; data-og-url=&quot;https://www.youtube.com/watch?v=jvYpv0VJBOA&quot;&gt;&lt;a href=&quot;https://www.youtube.com/watch?v=jvYpv0VJBOA&quot; target=&quot;_blank&quot; data-source-url=&quot;https://www.youtube.com/watch?v=jvYpv0VJBOA&quot;&gt;&lt;div class=&quot;og-image&quot;&gt;&lt;/div&gt;&lt;div class=&quot;og-text&quot;&gt;&lt;p class=&quot;og-title&quot;&gt;- YouTube&lt;/p&gt;&lt;p class=&quot;og-desc&quot;&gt;&lt;/p&gt;&lt;p class=&quot;og-host&quot;&gt;www.youtube.com&lt;/p&gt;&lt;/div&gt;&lt;/a&gt;&lt;/figure&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;Github&lt;br&gt;&lt;a href=&quot;https://github.com/facebooksearch/llama&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;https://github.com/facebooksearch/llama&lt;/span&gt;&lt;/a&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;2. LLaMA2 code review&lt;br&gt;&lt;br&gt;# 출처: &lt;br&gt;&lt;a href=&quot;https://youtu.be/zN30JodATrU?si=bPgzd-KKhxQJfgjA&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;https://youtu.be/zN30JodATrU?si=bPgzd-KKhxQJfgjA&lt;/span&gt;&lt;/a&gt;&lt;br&gt;Github&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1179&quot; data-origin-height=&quot;759&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/QXbav/btssT7cpvO6/mskxJJU7h0OtG8DMG3mkQk/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/QXbav/btssT7cpvO6/mskxJJU7h0OtG8DMG3mkQk/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/QXbav/btssT7cpvO6/mskxJJU7h0OtG8DMG3mkQk/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FQXbav%2FbtssT7cpvO6%2FmskxJJU7h0OtG8DMG3mkQk%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1179&quot; height=&quot;759&quot; data-origin-width=&quot;1179&quot; data-origin-height=&quot;759&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1164&quot; data-origin-height=&quot;820&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/qO85s/btssTfPzsJq/XuNwCnUp0wIwvTON6mohbK/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/qO85s/btssTfPzsJq/XuNwCnUp0wIwvTON6mohbK/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/qO85s/btssTfPzsJq/XuNwCnUp0wIwvTON6mohbK/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FqO85s%2FbtssTfPzsJq%2FXuNwCnUp0wIwvTON6mohbK%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1164&quot; height=&quot;820&quot; data-origin-width=&quot;1164&quot; data-origin-height=&quot;820&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;# LLAMA Recipe 로 llama2를 돌리는 IDE 가이드 참조&lt;br&gt;&lt;br&gt;# 저자의 한국어 fine-tuning model 참조&lt;/p&gt;&lt;figure class=&quot;imageblock alignCenter&quot; data-ke-mobileStyle=&quot;widthOrigin&quot; data-origin-width=&quot;1687&quot; data-origin-height=&quot;1080&quot;&gt;&lt;span data-url=&quot;https://blog.kakaocdn.net/dn/NaERn/btssNkEorgZ/4LUgCdEklJMer7pO59lv3k/img.jpg&quot; data-phocus=&quot;https://blog.kakaocdn.net/dn/NaERn/btssNkEorgZ/4LUgCdEklJMer7pO59lv3k/img.jpg&quot;&gt;&lt;img src=&quot;https://blog.kakaocdn.net/dn/NaERn/btssNkEorgZ/4LUgCdEklJMer7pO59lv3k/img.jpg&quot; srcset=&quot;https://img1.daumcdn.net/thumb/R1280x0/?scode=mtistory2&amp;fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FNaERn%2FbtssNkEorgZ%2F4LUgCdEklJMer7pO59lv3k%2Fimg.jpg&quot; onerror=&quot;this.onerror=null; this.src='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png'; this.srcset='//t1.daumcdn.net/tistory_admin/static/images/no-image-v1.png';&quot; loading=&quot;lazy&quot; width=&quot;1687&quot; height=&quot;1080&quot; data-origin-width=&quot;1687&quot; data-origin-height=&quot;1080&quot;/&gt;&lt;/span&gt;&lt;/figure&gt;
&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;/p&gt;</description>
      <category>AI/LLM</category>
      <author>moviewine</author>
      <guid isPermaLink="true">https://hsteve.tistory.com/725</guid>
      <comments>https://hsteve.tistory.com/725#entry725comment</comments>
      <pubDate>Fri, 1 Sep 2023 20:45:52 +0900</pubDate>
    </item>
    <item>
      <title>[기본-교육] token과 chunk</title>
      <link>https://hsteve.tistory.com/724</link>
      <description>&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&quot;chunk&quot;와 &quot;token&quot;은 자연어 처리(Natural Language Processing, NLP) 분야에서 중요한 개념입니다.&lt;br&gt;&lt;br&gt;&lt;b&gt;- 토큰(Token):&lt;/b&gt;&lt;br&gt;&lt;br&gt;토큰은 문장 또는 텍스트를 작은 단위로 나눈 것을 말합니다. 이러한 단위는 보통 단어, 구두점, 숫자 등과 같은 텍스트의 기본 구성 요소를 나타냅니다.&lt;br&gt;예를 들어, &quot;Hello, world!&quot;라는 문장은 다음과 같은 토큰으로 나눌 수 있습니다: &quot;Hello&quot;, &quot;,&quot;, &quot;world&quot;, &quot;!&quot;.&lt;br&gt;토큰화는 텍스트를 이해 가능한 작은 조각으로 나누는 중요한 NLP 전처리 단계 중 하나입니다.&lt;br&gt;&lt;br&gt;&lt;b&gt;- 청크(Chunk):&lt;/b&gt;&lt;br&gt;&lt;br&gt;청크는 토큰의 그룹이며, 이 그룹은 문장에서 의미 있는 단위를 나타내는 경우가 많습니다.&lt;br&gt;예를 들어, &quot;New York City&quot;라는 텍스트는 일반적으로 하나의 개체명(Entity)으로 인식되며, 이는 &quot;New&quot;, &quot;York&quot;, &quot;City&quot;라는 개별 토큰들의 청크입니다.&lt;br&gt;청크는 정보 추출, 문장 구조 분석 등과 같은 NLP 작업에서 중요하게 활용됩니다.&lt;br&gt;&lt;br&gt;&lt;b&gt;요약하면, 토큰은 텍스트를 작은 단위로 나눈 것이며, 청크는 이러한 토큰들의 그룹으로, 문장에서 의미 있는 정보를 나타낼 때 사용됩니다. 청크는 문맥을 고려하여 텍스트의 의미를 더 잘 이해하기 위해 유용하게 활용됩니다.&lt;/b&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt;</description>
      <category>AI/LLM</category>
      <author>moviewine</author>
      <guid isPermaLink="true">https://hsteve.tistory.com/724</guid>
      <comments>https://hsteve.tistory.com/724#entry724comment</comments>
      <pubDate>Fri, 1 Sep 2023 16:26:53 +0900</pubDate>
    </item>
    <item>
      <title>[고급-교육] LangChain (MS MVP AI 김태영)</title>
      <link>https://hsteve.tistory.com/722</link>
      <description>&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;# 출처: 챗GPT에 날개를 달아줄 랭체인(LangChain)&lt;br&gt;&lt;a href=&quot;https://youtu.be/JBcWvMeOAes?list=PLGnaBtRshJSRpBodFlJnIlQhvY6DMKhUD&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;https://youtu.be/JBcWvMeOAes?list=PLGnaBtRshJSRpBodFlJnIlQhvY6DMKhUD&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;&lt;figure data-ke-type=&quot;video&quot; data-ke-style=&quot;alignCenter&quot; data-ke-mobilestyle=&quot;widthContent&quot; data-video-host=&quot;youtube&quot; data-video-url=&quot;https://www.youtube.com/watch?v=JBcWvMeOAes&quot; data-video-thumbnail=&quot;https://scrap.kakaocdn.net/dn/bOCR6k/hyTPIJ6xqU/BT7VQUyUPNXjKkkyRKBuqK/img.jpg?width=1280&amp;amp;height=720&amp;amp;face=830_500_884_560&quot; data-video-origin-width=&quot;1280&quot; data-video-origin-height=&quot;720&quot;&gt;&lt;iframe src=&quot;https://www.youtube.com/embed/JBcWvMeOAes&quot; width=&quot;300&quot; height=&quot;225&quot; frameborder=&quot;&quot; allowfullscreen=&quot;true&quot;&gt;&lt;/iframe&gt;&lt;figcaption&gt;&lt;/figcaption&gt;&lt;/figure&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt; - 참고문서: &lt;a href=&quot;https://docs.langchain.com/docs/&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;https://docs.langchain.com/docs/&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;&lt;figure data-ke-type=&quot;opengraph&quot; data-og-title=&quot; ️  LangChain |  ️  LangChain&quot; data-ke-align=&quot;alignCenter&quot; data-og-description=&quot;LangChain is a framework for developing applications powered by language models.&quot; data-og-host=&quot;docs.langchain.com&quot; data-og-source-url=&quot;https://docs.langchain.com/docs/&quot; data-og-url=&quot;https://docs.langchain.com/docs/&quot;&gt;&lt;a href=&quot;https://docs.langchain.com/docs/&quot; target=&quot;_blank&quot; data-source-url=&quot;https://docs.langchain.com/docs/&quot;&gt;&lt;div class=&quot;og-image&quot;&gt;&lt;/div&gt;&lt;div class=&quot;og-text&quot;&gt;&lt;p class=&quot;og-title&quot;&gt; ️  LangChain |  ️  LangChain&lt;/p&gt;&lt;p class=&quot;og-desc&quot;&gt;LangChain is a framework for developing applications powered by language models.&lt;/p&gt;&lt;p class=&quot;og-host&quot;&gt;docs.langchain.com&lt;/p&gt;&lt;/div&gt;&lt;/a&gt;&lt;/figure&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;# ChatGPT와 함께 빠르게 발전하는 기술 LangChain&lt;br&gt; - ChatGPT는 거짓말도 하지만, LangChain은 사실 정보를 기반으로 답을 해주므로 더 사실에 근접할 것&lt;br&gt;&lt;br&gt;# &lt;b&gt;LangChain&lt;/b&gt;: 언어 모델을 기반으로 한 어플리케이션을 개발하기 위한 &lt;b&gt;프레임워크&lt;/b&gt;. 확장성이 뛰어나다.&lt;br&gt; - &lt;b&gt;데이터 인식&lt;/b&gt;: 언어 모델을 다른 데이터 소스에 연결&lt;br&gt; - &lt;b&gt;능동적 상호작용&lt;/b&gt;: 언어 모델이 환경과 상호작용할 수 있도록 함.&lt;b&gt;&lt;br&gt;&lt;/b&gt;&lt;b&gt; - LangChain의 컴포넌트: &lt;/b&gt;&lt;span style=&quot;color: #ee2323;&quot;&gt;스키마, 모델, 프롬프트, 인덱스, 메모리, 체인, 에이전트&lt;/span&gt;&lt;b&gt;&lt;br&gt;&lt;/b&gt;&lt;br&gt; 1) 스키마&lt;br&gt; : 텍스트, 채팅 메시지, examples, 문서 타입&lt;br&gt; 2) 모델&lt;br&gt; : 대규모언어모델, 채팅모델, 텍스트 임베딩 모델&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;/p&gt;</description>
      <category>AI/LLM</category>
      <author>moviewine</author>
      <guid isPermaLink="true">https://hsteve.tistory.com/722</guid>
      <comments>https://hsteve.tistory.com/722#entry722comment</comments>
      <pubDate>Fri, 1 Sep 2023 14:26:11 +0900</pubDate>
    </item>
    <item>
      <title>[기본-교육] Diffusion Model(Stable Diffusion Model)</title>
      <link>https://hsteve.tistory.com/716</link>
      <description>&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;#출처: OpenAI ChatGPT 3.5&lt;br&gt;&lt;br&gt;&lt;u&gt;&lt;b&gt;1. Diffusion Model&lt;/b&gt;&lt;/u&gt;&lt;br&gt;&lt;br&gt;확산 모델(Diffusion Model)은 인공지능(AI) 및 컴퓨터 과학 분야에서 사용되는 모델 중 하나로, 정보나 현상의 확산을 모델링하는 데 사용됩니다. 이 모델은 주로 정보의 전파, 현상의 확산, 혹은 제품의 입지선정과 같은 다양한 분야에서 활용됩니다.&lt;br&gt;&lt;br&gt;확산 모델은 일반적으로 다음과 같은 요소를 고려합니다:&lt;br&gt;&lt;br&gt;- &lt;b&gt;시작 지점(Seed Point)&lt;/b&gt;: 확산이 시작되는 초기 지점이나 시점을 나타냅니다. 이것은 정보의 시작 또는 현상의 원점을 나타냅니다.&lt;br&gt;- &lt;b&gt;확산 속도 및 방향&lt;/b&gt;: 정보나 현상이 어떻게 퍼져나가는지, 그리고 얼마나 빠르게 확산되는지를 모델링합니다. 이것은 일반적으로 수학적인 함수나 확률 모델을 사용하여 표현됩니다.&lt;br&gt;- &lt;b&gt;장애물 또는 영향 요소:&lt;/b&gt; 확산 과정에서 어떤 장애물이나 영향 요소가 작용할 수 있습니다. 이것은 현실 세계의 제약사항을 반영하는 데 사용됩니다.&lt;br&gt;- &lt;b&gt;도착 지점(End Point)&lt;/b&gt;: 확산 과정이 어떻게 종료되는지를 나타냅니다. 종종 목표 지점이나 최종 상태를 의미합니다.&lt;br&gt;&lt;br&gt;확산 모델은 주로 시뮬레이션 및 예측을 위해 사용되며, 예를 들어 정보가 어떻게 소셜 네트워크에서 전파되는지, 전염병이 어떻게 퍼지는지, 또는 제품의 시장 진출이 어떻게 진행되는지를 이해하는 데 활용될 수 있습니다. 이 모델은 실제 상황에서의 의사 결정과 전략 수립에 도움을 줄 수 있습니다.&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;u&gt;&lt;b&gt;2. 확산 모델(Diffusion Model) 활용 사례&lt;/b&gt;&lt;/u&gt;&lt;br&gt;&lt;br&gt;- 소셜 네트워크 분석: 확산 모델은 소셜 네트워크에서 정보, 아이디어 또는 특정 행동이 어떻게 전파되는지 이해하는 데 사용됩니다. 예를 들어, 트위터에서 특정 키워드가 어떻게 확산되는지 모델링하여 트렌드 분석 및 영향력 분석에 활용될 수 있습니다.&lt;br&gt;- 전염병 모델링: 전염병 확산을 예측하고 관리하기 위해 확산 모델이 사용됩니다. 이를 통해 전염병의 확산 경로와 어떻게 제어해야 하는지에 대한 전략을 개발하는 데 도움을 줄 수 있습니다.&lt;br&gt;- 제품 마케팅 및 입지선정: 확산 모델은 제품이 어떻게 시장에서 확산되는지 예측하는 데 사용될 수 있습니다. 이를 통해 적절한 마케팅 전략을 수립하고 제품의 입지를 결정하는 데 도움이 됩니다.&lt;br&gt;- 정책 및 의사 결정 지원: 확산 모델은 정책 결정에 활용될 수 있으며, 예를 들어 정부가 새로운 규제 정책을 도입할 때 그 영향을 예측하고 평가하는 데 사용될 수 있습니다.&lt;br&gt;- 물리학 및 과학 연구: 확산 모델은 물리학 및 과학 연구에서 다양한 분야에 적용됩니다. 화학 반응, 열 전도, 유체 역학 등의 과학적 현상의 확산을 모델링하는 데 사용됩니다.&lt;br&gt;- 금융 및 경제학: 금융 시장에서 자산 가격의 변동이 어떻게 확산되는지 이해하는 데 확산 모델이 적용될 수 있습니다. 또한 경제 모델링에서도 확산 모델은 미래 경제 동향을 예측하는 데 활용됩니다.&lt;br&gt;&lt;br&gt;이러한 활용 사례들은 확산 모델이 정보 및 현상의 전파를 이해하고 예측하는 데 어떻게 다양하게 활용될 수 있는지를 보여줍니다. 이 모델은 의사 결정과 전략 수립에 중요한 도구로 활용되며, 데이터 기반 접근법을 통해 현실 세계의 복잡한 상황을 모델링하는 데 도움이 됩니다.&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;u&gt;&lt;b&gt;3. Stable Diffusion Model&lt;/b&gt;&lt;/u&gt;&lt;br&gt;&lt;br&gt;&quot;Stable Diffusion Model&quot;은 확산 모델(Diffusion Model)의 변형 중 하나입니다. 이 모델은 생성 모델링과 이미지 생성에 사용되는 딥러닝 모델의 일종으로, &lt;b&gt;고화질 이미지를 생성하거나 이미지의 품질을 향상시키는 데 사용&lt;/b&gt;됩니다.&lt;br&gt;&lt;br&gt;Stable Diffusion Model의 핵심 아이디어는 이미지 생성 과정을 안정화하는 것입니다. 이미지를 점진적으로 개선해나가는 방식으로 작동하며, 다음과 같은 특징을 가집니다:&lt;br&gt;&lt;br&gt;- Diffusion Process: Stable Diffusion Model은 이미지를 생성하는 과정을 확산(Diffusion) 프로세스로 모델링합니다. 이 과정에서 이미지는 초기 잡음으로 시작하여 점차적으로 개선되며 높은 품질의 이미지로 수렴합니다.&lt;br&gt;- Noise Level: 확산 프로세스 동안 이미지에 노이즈가 추가되며, 이 노이즈 레벨은 이미지 품질을 조절하는 중요한 하이퍼파라미터입니다.&lt;br&gt;- Invertible Networks: 이미지 개선을 위해 안정적인(invertible) 신경망 아키텍처를 사용합니다. 이것은 생성된 이미지를 원본 이미지로 역변환할 수 있는 능력을 의미합니다.&lt;br&gt;- 모델 학습: Stable Diffusion Model은 대규모 데이터셋에서 학습되며, 훈련 중에 이미지 생성 과정을 안정화하는 방법을 학습합니다.&lt;br&gt;&lt;br&gt;Stable Diffusion Model은 고품질 이미지 생성과 이미지 편집 작업에 활용됩니다. 예를 들어, 고해상도 이미지를 생성하거나 이미지의 스타일을 변경하는 데 사용될 수 있습니다. 이 모델은 딥러닝과 이미지 처리 분야에서의 연구와 응용에서 주목받고 있으며, 이미지 생성 및 편집에 새로운 가능성을 제공합니다.&lt;br&gt;&lt;br&gt;&lt;br&gt;&lt;u&gt;&lt;b&gt;4. DDPM(Denoising Diffusion Probabilistic Models)&lt;/b&gt;&lt;/u&gt;&lt;br&gt;&lt;br&gt;DDPM은 &quot;Denoising Diffusion Probabilistic Models&quot;의 약어로, 생성 모델링 분야에서 사용되는 딥러닝 모델 중 하나입니다. 이 모델은 고화질 이미지 생성 및 이미지 복원 작업에 활용됩니다.&lt;br&gt;&lt;br&gt;DDPM의 주요 아이디어는 이미지 생성 및 복원 문제를 노이즈 제거 및 확산(Diffusion) 프로세스와 관련된 확률 모델로 접근하는 것입니다. DDPM은 다음과 같은 특징을 가집니다:&lt;br&gt;&lt;br&gt;- Diffusion Process: DDPM은 이미지 생성 또는 복원을 확산 프로세스로 모델링합니다. 확산 프로세스는 이미지에 노이즈를 반복적으로 추가하고 이를 점진적으로 제거하여 원본 이미지를 복원하는 방식으로 작동합니다.&lt;br&gt;- Probabilistic Modeling: 모델은 이미지의 확률 분포를 학습하여 확률적으로 이미지를 생성하고, 노이즈가 추가된 이미지를 생성합니다.&lt;br&gt;- 안정적인(invertible) 신경망 아키텍처: DDPM은 안정적인(invertible) 신경망 아키텍처를 사용하여 이미지를 노이즈로부터 복원하는 과정을 모델링합니다.&lt;br&gt;- 학습: 모델은 대규모 이미지 데이터셋에서 학습되며, 노이즈 수준 및 이미지 복원에 관련된 하이퍼파라미터를 조절하여 원하는 결과를 얻을 수 있습니다.&lt;br&gt;DDPM은 고화질 이미지 생성, 이미지 복원 및 이미지 품질 향상과 같은 작업에서 효과적으로 사용됩니다. 이 모델은 딥러닝 및 이미지 처리 연구 분야에서 많은 관심을 받고 있으며, 고화질 이미지 생성 및 복원에 대한 성능 향상을 위한 연구에 기여하고 있습니다.&lt;br&gt;&lt;br&gt;# 참고 (출처: 모두의 연구소 커뮤니티)&lt;br&gt;&lt;br&gt;- 쉬운 설명: &lt;a href=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part1.html&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;https://metamath1.github.io/blog/posts/diffusion/ddpm_part1.html&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;&lt;figure data-ke-type=&quot;opengraph&quot; data-og-title=&quot;ML simple works - A Gentle Introduction to Diffusion Model: Part 1 - DDPM&quot; data-ke-align=&quot;alignCenter&quot; data-og-description=&quot;&quot; data-og-host=&quot;metamath1.github.io&quot; data-og-source-url=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part1.html&quot; data-og-url=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part1.html&quot;&gt;&lt;a href=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part1.html&quot; target=&quot;_blank&quot; data-source-url=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part1.html&quot;&gt;&lt;div class=&quot;og-image&quot;&gt;&lt;/div&gt;&lt;div class=&quot;og-text&quot;&gt;&lt;p class=&quot;og-title&quot;&gt;ML simple works - A Gentle Introduction to Diffusion Model: Part 1 - DDPM&lt;/p&gt;&lt;p class=&quot;og-desc&quot;&gt;&lt;/p&gt;&lt;p class=&quot;og-host&quot;&gt;metamath1.github.io&lt;/p&gt;&lt;/div&gt;&lt;/a&gt;&lt;/figure&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;- 실습 코드&lt;br&gt;파이토치 &lt;a href=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part2-2.html&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;https://metamath1.github.io/blog/posts/diffusion/ddpm_part2-2.html&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;&lt;figure data-ke-type=&quot;opengraph&quot; data-og-title=&quot;ML simple works - A Gentle Introduction to Diffusion Model: Part 2-2 DDPM Hands-on with Pytorch&quot; data-ke-align=&quot;alignCenter&quot; data-og-description=&quot;&quot; data-og-host=&quot;metamath1.github.io&quot; data-og-source-url=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part2-2.html&quot; data-og-url=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part2-2.html&quot;&gt;&lt;a href=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part2-2.html&quot; target=&quot;_blank&quot; data-source-url=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part2-2.html&quot;&gt;&lt;div class=&quot;og-image&quot;&gt;&lt;/div&gt;&lt;div class=&quot;og-text&quot;&gt;&lt;p class=&quot;og-title&quot;&gt;ML simple works - A Gentle Introduction to Diffusion Model: Part 2-2 DDPM Hands-on with Pytorch&lt;/p&gt;&lt;p class=&quot;og-desc&quot;&gt;&lt;/p&gt;&lt;p class=&quot;og-host&quot;&gt;metamath1.github.io&lt;/p&gt;&lt;/div&gt;&lt;/a&gt;&lt;/figure&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;텐서플로 &lt;a href=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part2-1.html&quot; target=&quot;_blank&quot;&gt;&lt;span&gt;https://metamath1.github.io/blog/posts/diffusion/ddpm_part2-1.html&lt;/span&gt;&lt;/a&gt;&lt;/p&gt;&lt;figure data-ke-type=&quot;opengraph&quot; data-og-title=&quot;ML simple works - A Gentle Introduction to Diffusion Model: Part 2-1 DDPM Hands-on with TensorFlow&quot; data-ke-align=&quot;alignCenter&quot; data-og-description=&quot;&quot; data-og-host=&quot;metamath1.github.io&quot; data-og-source-url=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part2-1.html&quot; data-og-url=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part2-1.html&quot;&gt;&lt;a href=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part2-1.html&quot; target=&quot;_blank&quot; data-source-url=&quot;https://metamath1.github.io/blog/posts/diffusion/ddpm_part2-1.html&quot;&gt;&lt;div class=&quot;og-image&quot;&gt;&lt;/div&gt;&lt;div class=&quot;og-text&quot;&gt;&lt;p class=&quot;og-title&quot;&gt;ML simple works - A Gentle Introduction to Diffusion Model: Part 2-1 DDPM Hands-on with TensorFlow&lt;/p&gt;&lt;p class=&quot;og-desc&quot;&gt;&lt;/p&gt;&lt;p class=&quot;og-host&quot;&gt;metamath1.github.io&lt;/p&gt;&lt;/div&gt;&lt;/a&gt;&lt;/figure&gt;&lt;p data-ke-size=&quot;size16&quot; style=&quot;text-align: left;&quot;&gt;&lt;br&gt;&lt;br&gt;&lt;u&gt;&lt;b&gt;5. Code 구현&lt;/b&gt;&lt;/u&gt;&lt;br&gt;&lt;br&gt;Stable Diffusion Model을 구현하려면 다음 단계를 따르게 됩니다:&lt;br&gt;&lt;br&gt;1. PyTorch나 TensorFlow와 같은 딥러닝 프레임워크를 설치하십시오.&lt;br&gt;2. 대규모 이미지 데이터셋을 수집하고 전처리합니다.&lt;br&gt;3. 모델 아키텍처를 정의하십시오. Stable Diffusion Model은 안정적인(invertible) 신경망 아키텍처를 사용합니다.&lt;br&gt;4. 모델 학습을 위한 손실 함수 및 최적화 기법을 설정하십시오. 이 모델은 확산 프로세스와 노이즈 조절을 고려한 특별한 손실 함수를 사용합니다.&lt;br&gt;5. 모델을 학습하고 이미지 생성을 시작합니다.&lt;br&gt;6. 이미지 생성 시 노이즈 레벨과 다른 하이퍼파라미터를 조절하여 원하는 이미지 품질을 얻습니다.&lt;/p&gt;</description>
      <category>AI/ML &amp;amp; DL</category>
      <author>moviewine</author>
      <guid isPermaLink="true">https://hsteve.tistory.com/716</guid>
      <comments>https://hsteve.tistory.com/716#entry716comment</comments>
      <pubDate>Tue, 29 Aug 2023 18:35:55 +0900</pubDate>
    </item>
  </channel>
</rss>