우분투를 다시 한번 싹- 밀고 날 것 그 자체의 환경에서 이전에 개발했던 객체 검출 모델을 사용한 코드의 동작 테스트를 진행하던 중 아래와 같은 에러를 마주했다. attributeerror: 'upsample' object has no attribute 'recompute_scale_factor' File /usr/local/lib/python3.8/site-packages/torch/nn/modules/upsampling.py:154, in Upsample.forward(self, input) 152 def forward(self, input: Tensor) -> Tensor: 153 return F.interpolate(input, self.size, self.scale_factor, self.mod..
오랜만에 github 레포를 만들어서 push를 하다가 어이없는 에러를 마주했다. 아래 사진과 같이 새로 만든 원격 레포랑 로컬 레포를 연동하기 위해 https 주소로 remote add origin을 해주었으나 fatal: protocol 'https' is not supported https가 틀렸다는 황당한 에러를 마주한 것이다. 항상 해오던 것 처럼 원격 레포 주소를 아래 그림과 같이 copy를 하여 gitbash에 붙여넣기를 했는데 갑자기 왜 안된다는건지 의아했다. 해당 에러 문구를 검색하기 위해서 복사 후 검색 창에 붙여넣기를 했더니 fatal: protocol 'https' is not supported 이렇게 https 앞에 알 수 없는 특수 문자가 끼어 있었다. 여러번 지웠다 다시 붙여..
우분투에서 mv 명령어를 사용하여 기존 폴더 내의 모든 파일을 다른 폴더로 옮기려고 했는데 파일이 너무 많고 용량이 커서 그런지 아래와 같은 에러를 뱉어냈다. $ mv 기존 경로/* 이동할 경로/ bash : /bin/mv: Argument list too long 내가 옮기려던 파일은 10만장 가까이 되는 이미지 파일들이었으며 용량도 어마무시했다. 하지만 폴더 이동은 해야하고 mv 명령어는 안먹히고 어떻게 해야할지 고민 하다가 폴더 이름을 바꾸는 꼼수를 써 보기로 했다. 위에서 사용한 명령어는 기존 경로에 있는 파일 목록이 mv 인자로 들어가기 때문에 개수가 너무 많아지면 한번에 처리할 수 없어서 해당 에러를 뱉는다고 한다. 때문에 mv에 인자를 주는 것이 아니라 폴더 이름만 변경하는 식으로 꼼수를 쓰..
pc에 문제가 생겨서 우분투를 한번 싹 밀고(사실 한 번이 아님.. ㅠ...) 새로 Ubuntu 20.04 LST를 설치하고 아나콘다, vscode, nvidia-driver, CUDA 설치까지 마친 후에 Yolo v5 모델을 사용하려는데 아래와 같은 에러 메세지가 떴다. RuntimeError: CUDA error: no kernel image is available for execution on the device 나는 RTX3080, CUDA 11.1, CUDNN 8.0.5, pytorch 1.8.0의 환경이었으며 이전과 동일하게 yolo v5 github를 git clone 해 와서 detect.py 파일을 실행하고자 했다. 여기저기 찾아보니 nvidia-driver 문제라기 보단 pytorch ..
이때까지 마주한 압축 파일 포맷은 .zip과 .tar이 전부였는데 이번에 .7z라는 파일을 마주하게 되었다. p7zip는 리눅스에서 사용할 수 있는 7-Zip이며 압축률이 높아서 zip이나 tgz보다 작은 파일을 만들 수 있다. 압축파일이니까 생각없이 unzip을 사용하여 압축을 해제하려고 했으나 당연하게도 해당 파일은 uznzip 명령어로는 압축 해제가 되지 않는다. 7z파일을 압축 해제 하기 위해서는 따로 p7zip을 따로 설치해야만 한다. 나는 Ubuntu 20.04 LTS를 사용 중이기 때문에 아래 명령어를 사용하여 p7zip을 설치하였다. $ sudo apt-get install p7zip 위의 명령어를 사용하여 p7zip을 설치하여도 압축해제가 되지 않는다면 아래의 명령어를 추가로 실행 시켜주..
어느정도 깃허브가 익숙해지면서 같은 실수를 반복하지 않고 에러없이 평화롭게 사용했다. 하지만 오늘 난 오랜만에 github 덕분에 식은 땀을 조금 흘렸다. 폴더 내 파일만 add해서 커밋하면 되는 걸 잘못 엔터를 쳐서 파일이 들어있는 폴더 자체를 add 했고 git status를 했을 땐 add 해야할 파일이 untracked로 뜨는 것이 아니라 new file 상태였다. 이런 적은 처음이었고 이 전체 폴더를 커밋했을 때 어떤 결과가 일어날지 모르니 커밋을 하기가 두려웠다. 그래서 add를 취소하는 방법을 찾아봤고 명령어는 아주 간단했다. git reset HEAD "파일 명" $ git reset HEAD "파일 명" 위의 명령어를 입력해 주면 해당 파일의 add를 취소해준다. 뒤에 파일명을 적지 않으..
( 해당 프로젝트 노트북 파일 : https://github.com/YOOHYOJEONG/lms_practice/blob/master/exploration/lms_ex_19.ipynb GitHub - YOOHYOJEONG/lms_practice Contribute to YOOHYOJEONG/lms_practice development by creating an account on GitHub. github.com ) U-Net Generator를 만들어서 학습 후 스케치만 있는 그림에 채색을 하는 프로젝트를 진행하는 중 Generator와 Discriminator 학습하는 부분에서 아래와 같은 에러가 떴다. FailedPreconditionError: Error while reading resource ..
깃허브는.. 정말 쓰면 쓸 수록 모를 녀석이다... 이렇게 잊을만 하면 에러 포스팅을 하게 하다니... 왜 100MB 이상의 파일을 push하지 못하게 해놓은걸까... 나쁜 녀석들... 사실 이전부터 깃허브는 100MB 이상인 파일은 업로드하지 못한다는 것을 인지하고 있었으나 내가 오늘 push하려던 파일의 용량(618.76MB)을 미처 확인을 하지 못한 채 바보같이 push 해버렸다... 당연히 에러를 뱉어냈고.. remote: error: File is 618.76 MB; this exceeds GitHub's file size limit of 100.00 MB remote: error: GH001: Large files detected. You may want to try Git Large File..
SRGAN을 활용하여 고해상도 이미지를 생성하는 프로젝트를 진행하다가 GPU 메모리 오류를 마주했다. ( 해당 프로젝트 노트북 파일 : https://github.com/YOOHYOJEONG/AIFFEL_LMS_project/blob/master/ex16/ex16_SRGAN.ipynb ) GitHub - YOOHYOJEONG/AIFFEL_LMS_project Contribute to YOOHYOJEONG/AIFFEL_LMS_project development by creating an account on GitHub. github.com 아이펠 클라우드 환경에서 모델을 돌리면 GPU 메모리 걱정은 할 필요 없다고 생각했는데, 종종 메모리 오류를 마주한 적이 있었다. 그럴 때 마다 배치 사이즈를 줄이거나 ..
이전에 겪었던 에러가 생겨도 당황하지 않고 뚝딱뚝딱 해결하면서 이제 나름대로 깃허브에 익숙해 졌다고 생각했었는데 오늘 git commit을 했을 때 나타난 새로운 에러를 마주하고는 나는 또 식은 땀을 흘리며 폭풍 구글링을 했다. 거의 매일 커밋하는 폴더였는데 갑자기 오늘 커밋을 했더니 이런 에러가 떴다. fatal: Unable to create 'C:/file_path/.git/index.lock': File exists. 예전에 레포랑 잔디까지 날려먹은 이후로 함부로 삭제 하기 무서워서 구글링을 했고 해결 방법은 의외로 간단했다. 특정 Git 프로세스가 동작중일 때 다른 Git 프로세스가 실행되는 것을 막기 위해서 index.lock 이라는 파일이 생기는데, 의도된 프로세스가 아니라면 index.lo..