본문 바로가기

분류 전체보기80

[MLB2024 TechTalk] Gemma-Ko: 오픈 언어모델에 한국어 입히기 테크톡 리뷰 감사하게도 Google ML Bootcamp를 통해여러 테크톡을 들을 수 있었고,이 중 AI/ML GDE 이준범(Beomi)님의 "Gemma-Ko:오픈 언어모델에 한국어 입히기" 테크톡 내용을 정리해보려고 합니다.  1. Gemma 란?  Google에서 공개한 Opensource LM입니다. Google의 또 다른 모델인 Gemini와 비교해보자면Gemini: Google의 LLM/LMM(large multimodal model). Gemma: 구글의 공개 LM(Open source). 라고 볼 수 있습니다.Gemini와 Gemma는 토크나이저가 동일하다고 합니다.다국어로 훈련된 Gemini와 다르게 Gemma 모델은 영어로만 학습된 모델입니다.다만 토크나이저에는 한국어 Vector 정보가 있어Gemm.. 2024. 9. 8.
[Conference]Google I/O Extended 2024 Incheon 회고 인천 송도에서 열린 Google I/O Extended 2024 Incheon을 다녀왔습니다.내용과 느낀점을 정리하고 공유하고자 글을 작성합니다. 총 42분의 연사자분들이 참여해주셨고,참가비는 아깝지 않은 4마넌이었습니다..(지식과 티셔츠와 스티커까지 주거든요..ㅎㅎ)  컴퓨터가 세상을 보는 방식, 딥러닝 이전부터 멀티모달 AI까지 모두의 연구소, 박광석님  1. 컴퓨터는 어떤것을 볼까?  이미지를 작게 줄이고, 다시 늘려보면 이들의 차이점이 있음. 고양이 수염같은 부분은 저화질이 되게 되면 사라지게 되고 남은 객체의 형체, 사이즈, 위치 등이 되며 이런 부분을 특징점으로서 사용되게 됨. 해당 특징점을 비교하며 이미지 분류를 가능하게 함.Computer Vision에서는 feature을 뽑아내는 눈에 해.. 2024. 7. 29.
[MLB2024]Google ML Bootcamp 5기 도전 Google ML Bootcamp 5기에 합격했습니다. 온라인 교육 과정이라서현업에 있어도 참가가 가능하기 때문에 동시에 진행해 볼 생각입니다.또 새로운 도전이네요.   Bootcamp에서 배운 내용들, 느낀점을 꾸준히 정리해 나가겠습니다! 2024. 6. 26.
[논문 리뷰] ViT(An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale) 논문 : https://arxiv.org/pdf/2010.11929 이번 포스팅에서는 2021년 Google Brain Team에서 발표한 Transformer를 이용한 이미지 분류 모델ViT(An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale)에 대한 논문 리뷰를 진행하겠습니다.  해당 포스팅을 참고했습니다.https://hipgyung.tistory.com/entry/%EC%89%BD%EA%B2%8C-%EC%9D%B4%ED%95%B4%ED%95%98%EB%8A%94-ViTVision-Transformer-%EB%85%BC%EB%AC%B8-%EB%A6%AC%EB%B7%B0-An-Image-is-Worth-16x16-Wor.. 2024. 6. 16.
[논문 리뷰] SegmentAnything 논문:https://arxiv.org/abs/2304.02643 Segment AnythingWe introduce the Segment Anything (SA) project: a new task, model, and dataset for image segmentation. Using our efficient model in a data collection loop, we built the largest segmentation dataset to date (by far), with over 1 billion masks on 11M licensearxiv.org   이번 포스팅에서는 Meta(페이스북)에서 2023년 4월 공개한 강력한 CV 모델인 SegmentAnything 논문을 리뷰하겠습니다.   .. 2024. 6. 8.
[논문 리뷰] BERT: Pre-training of Deep Bidirectional Transformers forLanguage Unders 논문: https://arxiv.org/pdf/1810.04805 이번 포스팅에서는 BERT에 대한 논문리뷰를 진행하겠습니다. 해당 글을 참조했습니다. https://misconstructed.tistory.com/43 [논문 리뷰] BERT: Pre-training of Deep Bidirectional Transformers forLanguage Understanding (NAACL 2019)2019년 구글에서 발표한 BERT에 대한 논문이다. 논문의 원본은 여기서 볼 수 있다. # Introduction Pre-trained Language Model은 자연어 처리 task의 성능을 향상시킬 수 있다. PLM(pre-trained language model)을 적용하misconstructed.tis.. 2024. 5. 29.
[논문 리뷰] GPT-1 (Improving Language Understanding by Generative Pre-Training) 논문: https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf   이번 포스팅은 요즘 사람들이 정말 많이 쓰는인간의 언어를 자연스럽게 생성해서 답변을 해주는GPT(Generative Pre-Trained Transformer)의 첫번째 논문인2018년 OpenAI에서 발표한 GPT-1 Improving Language Understandingby Generative Pre-Training에대한 논문 리뷰를 진행하겠습니다.  해당 글을 참조했습니다.https://lcyking.tistory.com/entry/%EB%85%BC%EB%AC%B8%EB%A.. 2024. 5. 29.
[논문 리뷰] YOLOv3(YOLOv3: An Incremental Improvement) 논문 : https://arxiv.org/pdf/1804.02767 이번 포스팅에서는 YOLOv3에 대한 논문리뷰를 하겠습니다.YOLOv2가 나온 이후 2년만에 나온 논문이며,당시에 나온 좋은 기술들을 다시 YOLO에 적용했습니다.  다음 글을 참조했습니다.https://kikaben.com/yolov3-2018/ KiKaBeN - YOLOv3: An Incremental Improvement (2018)The last version of YOLO with Joseph Redmonkikaben.comhttps://herbwood.tistory.com/21 YOLO v3 논문(YOLOv3: An Incremental Improvement) 리뷰이번 포스팅에서는 YOLO v3논문(YOLOv3: An Incr.. 2024. 5. 20.
[논문 리뷰] YOLOv2(YOLO9000:Better, Faster, Stronger) 논문: https://arxiv.org/pdf/1612.08242 이번 포스팅에서는 YOLOv2 논문에 대한 리뷰를 하겠습니다. 부제로서는 YOLO9000, Better,Faster, Stronger를 썼는데 YOLOv1보다 나아진 점, 빨라진 점, 강해진 점을 강조하고 있습니다. 해당 글을 참고했습니다 https://herbwood.tistory.com/17 YOLO v2 논문(YOLO9000:Better, Faster, Stronger) 리뷰이번 포스팅에서는 YOLO v2 논문(YOLO9000:Better, Faster, Stronger)을 읽고 리뷰해도록 하겠습니다. 입력 이미지의 크기가 300x300인 SSD300 모델은 detection 속도가 빠르지만 정확도가 낮으며, SSD512 모델은 정h.. 2024. 5. 19.