🌐 [i18n-KO] Translated cache_explanation.md to Korean#39535
🌐 [i18n-KO] Translated cache_explanation.md to Korean#39535stevhliu merged 11 commits intohuggingface:mainfrom
cache_explanation.md to Korean#39535Conversation
| # 캐싱[[caching]] | ||
| 누군가와 대화를 나누고 있는데, 상대방이 이전에 했던 말을 기억하지 못하고 당신이 대답할 때마다 처음부터 다시 시작해야 한다고 상상해 보세요. 이는 느리고 비효율적이겠죠? | ||
|
|
||
| 이 비유를 트랜스포머 모델에도 적용할 수 있습니다. 자기회귀 모델 생성은 한 번에 하나의 토큰씩 예측하기 때문에 느릴 수 있습니다. 각각의 새로운 예측은 이전의 모든 문맥에 의존합니다. |
There was a problem hiding this comment.
| 이 비유를 트랜스포머 모델에도 적용할 수 있습니다. 자기회귀 모델 생성은 한 번에 하나의 토큰씩 예측하기 때문에 느릴 수 있습니다. 각각의 새로운 예측은 이전의 모든 문맥에 의존합니다. | |
| 이 비유를 트랜스포머 모델에도 적용할 수 있습니다. 자기회귀 모델의 생성은 한 번에 하나의 토큰씩 예측하기 때문에 느릴 수 있습니다. 각각의 새로운 예측은 이전의 모든 문맥에 의존합니다. |
|
|
||
| 이 비유를 트랜스포머 모델에도 적용할 수 있습니다. 자기회귀 모델 생성은 한 번에 하나의 토큰씩 예측하기 때문에 느릴 수 있습니다. 각각의 새로운 예측은 이전의 모든 문맥에 의존합니다. | ||
|
|
||
| 1000번째 토큰을 예측하려면, 모델은 이전 999개 토큰의 정보가 필요합니다. 이 정보는 토큰 표현에 걸친 행렬 곱셈으로 표현됩니다. |
There was a problem hiding this comment.
| 1000번째 토큰을 예측하려면, 모델은 이전 999개 토큰의 정보가 필요합니다. 이 정보는 토큰 표현에 걸친 행렬 곱셈으로 표현됩니다. | |
| 1000번째 토큰을 예측하려면, 모델은 이전 999개 토큰의 정보가 필요합니다. 이 정보는 각 토큰 표현들 사이의 행렬 곱을 통해 표현됩니다. |
|
|
||
| for _ in range(max_new_tokens): | ||
| outputs = model(**inputs, cache_position=cache_position, past_key_values=past_key_values, use_cache=True) | ||
| # 탐욕적으로 다음 토큰 하나를 샘플링 |
There was a problem hiding this comment.
| # 탐욕적으로 다음 토큰 하나를 샘플링 | |
| # 탐욕적 기법으로 다음 토큰 하나를 샘플링 |
| # 탐욕적으로 다음 토큰 하나를 샘플링 | ||
| next_token_ids = outputs.logits[:, -1:].argmax(-1) | ||
| generated_ids = torch.cat([generated_ids, next_token_ids], dim=-1) | ||
| # 처리되지 않은 토큰을 남겨두어 다음 생성 단계를 위한 입력을 준비합니다. 우리의 경우 새로운 토큰 하나만 있고 |
There was a problem hiding this comment.
| # 처리되지 않은 토큰을 남겨두어 다음 생성 단계를 위한 입력을 준비합니다. 우리의 경우 새로운 토큰 하나만 있고 | |
| # 처리되지 않은 토큰을 남겨두어 다음 생성 단계를 위한 입력을 준비합니다. 우리의 경우 새로운 토큰 하나만 존재합니다. |
해당 커밋이 기존 PR 브랜치가 아닌 별도의 커밋으로 올라와 있어 이 PR에 반영되지 않고 있습니다. 이 부분 확인 부탁드립니다. 수정 : 제 착오였습니다.. 😅 |
stevhliu
left a comment
There was a problem hiding this comment.
Thanks for your translation!
We also recently added a Cache position section, would you like to translate that as well?
Thank you for the note! I’d be happy to translate the I noticed that the content under cache_storage_implementation appears slightly different between the website and the corresponding Could you kindly let me know whether I should base the translation on the version currently shown on the website or the version in the I appreciate your guidance and will proceed with whichever option you recommend. |
|
|
|
수정된 부분도 문제 없는것 확인하였습니다! 질문 주신 사항에 대해서는 번역은 깃허브 main 브랜치를 기준으로 진행하시면 됩니다! |
넵 main branch 기준으로 업데이트 하였습니다! 리뷰 부탁드립니다! 39e0265 (c.c @yijun-lee) |
stevhliu
left a comment
There was a problem hiding this comment.
Thanks, it should be updated on main :)
| "[INST] Hello, what's your name. [/INST] Hello! My name is LLaMA," | ||
| ``` | ||
|
|
||
| 캐시 위치[[cache-position]] |
There was a problem hiding this comment.
| 캐시 위치[[cache-position]] | |
| ## 캐시 위치[[cache-position]] |
|
@4N3MONE @yijun-lee 안녕하세요! 혹시 리뷰 한번 더 요청드려도 괜찮을까요? 감사합니다. |
|
The docs for this PR live here. All of your documentation changes will be reflected on that endpoint. The docs are available until 30 days after the last update. |
…39535) * update: _toctree.yml * docs: ko: cache_explanation.md * feat: nmt draft * fix: apply yijun-lee's comments * fix: apply 4N3MONE's comments * docs: update cache_position * docs: update cache-storage-implementation * update: add h2 tag in cache-position --------- Co-authored-by: taehyeonjeon <xogus294@gmail.com>
…39535) * update: _toctree.yml * docs: ko: cache_explanation.md * feat: nmt draft * fix: apply yijun-lee's comments * fix: apply 4N3MONE's comments * docs: update cache_position * docs: update cache-storage-implementation * update: add h2 tag in cache-position --------- Co-authored-by: taehyeonjeon <xogus294@gmail.com>
…39535) * update: _toctree.yml * docs: ko: cache_explanation.md * feat: nmt draft * fix: apply yijun-lee's comments * fix: apply 4N3MONE's comments * docs: update cache_position * docs: update cache-storage-implementation * update: add h2 tag in cache-position --------- Co-authored-by: taehyeonjeon <xogus294@gmail.com>
…39535) * update: _toctree.yml * docs: ko: cache_explanation.md * feat: nmt draft * fix: apply yijun-lee's comments * fix: apply 4N3MONE's comments * docs: update cache_position * docs: update cache-storage-implementation * update: add h2 tag in cache-position --------- Co-authored-by: taehyeonjeon <xogus294@gmail.com>
…39535) * update: _toctree.yml * docs: ko: cache_explanation.md * feat: nmt draft * fix: apply yijun-lee's comments * fix: apply 4N3MONE's comments * docs: update cache_position * docs: update cache-storage-implementation * update: add h2 tag in cache-position --------- Co-authored-by: taehyeonjeon <xogus294@gmail.com>
…39535) * update: _toctree.yml * docs: ko: cache_explanation.md * feat: nmt draft * fix: apply yijun-lee's comments * fix: apply 4N3MONE's comments * docs: update cache_position * docs: update cache-storage-implementation * update: add h2 tag in cache-position --------- Co-authored-by: taehyeonjeon <xogus294@gmail.com>
…39535) * update: _toctree.yml * docs: ko: cache_explanation.md * feat: nmt draft * fix: apply yijun-lee's comments * fix: apply 4N3MONE's comments * docs: update cache_position * docs: update cache-storage-implementation * update: add h2 tag in cache-position --------- Co-authored-by: taehyeonjeon <xogus294@gmail.com>
What does this PR do?
Translated the
cache_explanation.mdfile of the documentation to Korean.Thank you in advance for your review.
Part of #20179
Before reviewing
[[lowercased-header]])Who can review? (Initial)
May you please review this PR?
@4N3MONE, @yijun-lee, @jungnerd , @harheem
Before submitting
Pull Request section?
to it if that's the case.
documentation guidelines, and
here are tips on formatting docstrings.
Who can review? (Final)