전체 글52 [Unix Programming] 3. 파일 다루기 파일 정보의 획득파일 관련 각종 정보를 알아볼 수 있는 시스템콜int stat (const char *pathname, struct stat *buf);int fstat (int filedes, struct stat *buf); // open된 파일에 대해st_dev, st_ino : identifier (논리적 장치번호와 inode 번호) st_mode : permission mode st_nlink : link의 수 st_uid, st_gid : user의 uid와 gid st_rdev : file이 장치인 경우만 사용 st_size : 논리적 크기 st_atime, st_mtime, st_ctime : file의 최근 access time, update time, stat 구조의 update tim.. 2024. 12. 9. [Unix Programming] 2. 디렉터리 다루기 디렉토리 생성과 삭제디렉토리 생성 시스템콜을 사용하면, 디렉토리 파일에 .과 ..을 넣어서 생성해줌 (os에게 만들어달라고 요청하는 것)int mkdir(const char *pathname, mode_t mode);int rmdir(const char *pathname);반환 값 : 0(성공) / -1(실패) File / Directory modefile directory mode (access permission) : “0764”owner : group : othersread(4) + write(2) + exec(1) → 1~7까지의 권한을 알 수 있음디렉토리에서 w,r,x의 의미r(읽기) : ls를 할 수 있다 - 디렉토리내 폴더, 파일들을 확인 가능w(쓰기) : 새로운 파일과 디렉토리를 만드는 것.. 2024. 12. 9. [Unix Programming] 개요 앞으로의 포스팅은 세종대학교 컴퓨터공학과 박태순 교수님 유닉스 프로그래밍 수업자료를 기반으로 정리한 내용입니다.- 추가 Ref : 시스템 프로그래밍 리눅스&유닉스(한빛 아카데미)Chapter내용2디렉터리 다루기3파일 다루기4파일 입출력5시스템 정보6프로세스 정보7프로세스 생성과 실행8시그널9메모리 매핑10파이프11message passing12shared memory segment13semaphore14locking 2024. 12. 9. [Paper list] Attention Paper List 목표 : Attention 기법 정리논문 리뷰를 하면서 레퍼런스 통해 읽고 싶은 논문들 계속 업데이트 할 예정Attention, Transformer→ 현재 Attention 매커니즘은 NLP, CV, 멀티모달 등 다양한 분야에서 핵심 기술로 자리를 잡았다. 따라서 방학동안 관련한 논문들을 리뷰하며 Attention 매커니즘에 중점을 두고 개념을 확립하는 시간을 갖고자 한다.우선,(1) 트랜스포머 개념 정리(2) Attention 기법을 분류하여 paper Review논문명분류Transformers: Attention Is All You Need(2017)Attention 기초FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awaren.. 2024. 12. 2. [Hugging face Error] ValueError: Cannot use chat template functions because tokenizer.chat_template is not set and no template argument was passed! 해당 에러가 뜨는 이유는 tokenizer.chat_template가 설정되지 않았거나 template 인자가 전달되지 않아서 발생한 문제이다. 이 문제를 해결하려면, chat_template를 명시적으로 설정하거나 템플릿을 직접 작성해서 넘겨줘야 한다. -- 해결 코드 --# 기존 코드import torchfrom transformers import pipelinemodel_id = "meta-llama/Llama-3.2-1B"pipe = pipeline( "text-generation", model=model_id, torch_dtype=torch.bfloat16, device_map="auto",)messages = [ {"role": "system", "content".. 2024. 9. 28. [논문 리뷰 - GPT1] Improving Language Understanding by Generative Pre-Training (2018) 이번엔 OpenAI의 GPT1 논문을 리뷰해보고자 한다.NLP 분야의 중심인 transformer에 대한 기본적인 논문들을 모두 읽어 본 후, transformer를 기반으로 한 첫 model paper 리뷰이다. 본 논문 리뷰 이후, GPT1 모델을 이용하여 엣지 디바이스에서 딥러닝 연산의 수행을 프로파일링하여 분석하고자 한다. 따라서, 논문에 대해 확실하게 이해를 하고, 코드 리뷰까지 진행하고자 한다. Abstract NLP는 텍스트 추론, 질문 응답, 의미적 유사성 평가, 문서 분류와 같은 다양한 분야에서 쓰이고 있다. 특정 작업을 학습하기 위한 라벨링 데이터는 부족하지만 라벨링 되지 않은 텍스트 데이터는 풍부하다. 따라서 본 논문은 대규모의 라벨링 되지 않은 텍스트 말뭉치들을 생성적 사전 학습과 .. 2024. 9. 9. 이전 1 2 3 4 5 6 7 8 9 다음