Link
11-28 22:35
«   2020/11   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30          
Archives
Today
1,619
Total
1,176,191
관리 메뉴

꿈 많은 사람의 이야기

파이썬 케라스(keras) 딥러닝 CNN으로 강아지 종류(품종)을 예측해봅시다! 본문

deep learning(딥러닝)

파이썬 케라스(keras) 딥러닝 CNN으로 강아지 종류(품종)을 예측해봅시다!

이수진의 블로그 이수진의 블로그 2018. 10. 1. 10:20

해당 코드는 이 깃허브에 존재합니다. 

(https://github.com/lsjsj92/keras_basic)


------------


요즘 딥러닝이 완전 핫합니다!

이미지 인식, 영상처리 문장 처리 등 많은 분야에서 사용되고 있는데요

이번 포스팅은 그 중에서 이미지 인식을 해봅니다


어떤 이미지 인식이냐구요?


바로 강아지 품종(종류)를 인식해보는 것입니다!

포메라니안, 불독, 시바, 허스키 등 강아지 종류를 한 번 예측해보죠


언어는 당연히 파이썬을 썼습니다.

라이브러리는 텐서플로 backend를 이용해 케라스(keras)를 사용했습니다.


즉 케라스로 CNN 네트워크를 구성해 훈련해봅니다



먼저 훈련 자료가 필요하겠죠??

훈련 자료는 크롤링을 해서 가지고 왔습니다.

강아지 종류별로 폴더를 만들었는데요 

종류는 다음과 같습니다.

비글, 불독, 치와와, 웰시코기, 그레이하운드, 허스키, 말티즈, 포메라니안, 셰퍼드, 시바견, 시츄, 토이푸들(푸들), 요크셔테리어

이렇게 13가지 종류를 모아놨습니다.



이건 웰시코기 사진이구요



이건 포메라니안 사진입니다.

이렇게 각 폴더 안에 사진들을 모아놨습니다

그럼 각 이미지 개수는 얼만큼 될까요??



이렇게 되네요. 각 이미지 개수는 제각기 다르지만 대략 평균적으로 2400개 정도 되었습니다.

이미지 개수가 안맞는게 조금 흠이네요~

일단은 이 상태로 모델을 만들어보죠.



총 이미지 개수는 38599개입니다

13개의 카테고리 치고는 훈련 셋이 조금 많이 부족합니다

나중에 imagedatagenerator로 이미지를 부풀리겠습니다.

일단은 이 상태로 훈련을 해봅니다.



먼저 클래스 개수(nb_classes)를 설정합니다.

그리고 각 이미지를 컬러 값이니까 (255,255,3) 모양의 numpy 배열로 변환시켜줍니다

그리고 numpy 배열로 잠깐 저장을 했어요

이후 X_train, X_test, y_train, y_test 값으로 불러왔습니다

그래서 훈련 셋에서는 약 2만7천개정도 데이터가 있구요

테스트 셋에서는 6700여개가 있습니다.


라벨(클래스)값은 원핫 인코더로 변환시켰습니다.



여기서 정규화(normalization)을 해줍니다.

왜냐하면 0~255값을 가지고 있으니까 값의 폭이 크기 때문이죠.

이거를 0~1의 값을 가지도록 해줍니다.


자! 이제 데이터 전처리는 끝났습니다.

훈련 모델을 만들어보죠

저는 컨볼루션 레이어를 구축했습니다.

이미지 -> 32개 Conv2D -> maxpooling -> dropout -> 64개 Conv2D -> Maxpooling -> dropout -> 128개 conv2d -> 128개 Conv2D

-> MaxPooling2D -> dropout -> Dense -> dropout -> Dense


망으로 구축했어요



이렇게 말이죠!

이걸 요약해서 보면



이렇게 나옵니다.

이 상태에서 훈련을 시켜주고

정확도를 측정해보죠



조금은 아쉬운 결과가 나왔네요

70%대에 불과합니다.

그래프로 봐볼까요??



cost loss가 떨어지긴 하지만 엄청 낮아지지 않았네요.

그럼 과적합을 보기 위해서 훈련할 때 정확도는 어떠했는지 봐볼까요?



훈련할 때도 72% 정도였네요. overfitting(오버피팅)은 걸리지 않았습니다.

제 생각엔 데이터 셋이 부족해서 그런거 같더군요.

그래서 늘려봅니다!



keras 케라스에서 imagedatagenerator가 있습니다.

이것을 이용해 좌우 0.1씩 움직여주고 0.2배로 크고 작게 해주는 로직을 이용해서

이미지를 늘려줍니다!



근데 제가 메모리가 부족하더라구요

16G인데도..

numpy에서 memoryerror가 계속 떴습니다.

아마도 이미지 개수가 많아서 numpy 배열에서 처리하기 힘들었나 봅니다.

이건 케라스에서 이미지를 따로따로 가지고와서 훈련하는 방법을 알아봐야겠습니다.

그래서 아무튼 원래는 각 이미지당 1만개정도를 하려고 했는데

한계가 2의 16승인 대략 65500~7만개 정도가 한계였습니다.

그래서 한 이미지당 6천개로 제약했습니다.



아까 총 이미지 개수보다 대략 2배가 늘어났습니다.

무엇보다 이미지 개수가 같아졌죠!

각 이미지는 6001개로 동일합니다



이 상태에서 훈련하니까 정확도가 무려 0.86까지 올라갔습니다!

즉 86%이죠. 아까는 70%에 불과했는데 말입니다

그래프로 볼까요??



오차도 잘 떨어졌습니다.

아까는 1.0 언저리였는데 이젠 0.4까지 떨어졌네요



정확도도 쭉쭉 올랐구요!

그럼 이제 실전 이미지로 테스트해봅니다.



그냥 구글에서 데이터를 가지고 왔습니다.

말티즈, 불독, 비글, 토이푸들, 포메, 허스키

이렇게 가지고 와서 이미지를 추측해보면!




이렇게 나옵니다.

흠.. 말티즈는 예측을 잘 하지 못하네요

하지만 불독, 비글, 토이푸들, 포메라니안, 허스키는 잘 예측했습니다.


말티즈 같은 경우는 허스키, 불독으로 예측을 하는데


아마 허스키 사진이 뒷 배경이 하얀색(눈 때문에)이 많았거든요

그래서 말티즈 색 특성상 하얀색이 많아서 그런거 같기도 합니다


아무튼! 이렇게 딥러닝을 이용해서 품종을 예측해봤습니다

다음번엔 더 효율적으로 짜서 가지고 오겠습니다~

66 Comments
  • 이전 댓글 더보기
  • 프로필사진 효니 2019.08.29 04:18 안녕하세요, 딥러닝 공부를 시작해서 검색하다가 들리게 되었는데 github에 해당 포스팅 관련 소스 코드는 혹시 지우신건가요? 'keras를 이용한 딥러닝 기초 학습' 폴더를 봐도 없어서요
  • 프로필사진 이수진의 블로그 이수진의 블로그 2019.08.29 05:39 신고 아뇨 지우지 않았습니다 ㅎㅎ 레포 명은 한글이 아니라 영어입니다.
    keras basic인가 그럴겁니다
  • 프로필사진 효니 2019.08.29 09:45 안녕하세요~ :) 네 keras_basic 폴더를 봤던건데 강아지 vs 고양이 분류 코드는 확인했는데 품종 분류는 없어서요. 포스팅내 코드 내용만 참고해도 문제 없을까요
  • 프로필사진 이수진의 블로그 이수진의 블로그 2019.08.29 10:12 신고 네 ㅎㅎ 품종 분류는 어차피 데이터만 다를 뿐입니다.

    단지, 개, 고양이 분류는 binary classification이고 품종 분류는 multi label classification이니까요 저의 깃허브 자료 중 7번을 참고하셔서 보시면 될 것 같습니다.

    7번 자료랑 품종 분류는 코드가 사실상 동일합니다. 이미지만 다를 뿐입니다.
  • 프로필사진 효니 2019.08.29 11:23 감사합니다 :D
  • 프로필사진 jgy 2019.11.29 14:29 imagedatagenerator 예제 코드는 없나요?
  • 프로필사진 이수진의 블로그 이수진의 블로그 2019.11.29 21:13 신고 제 깃허브 들어가시면 자료가 있으실겁니다~
  • 프로필사진 pjh 2020.06.01 23:01 imagedatagenerator 예제 코드를 깃허브에서 못찾겠어가지구요 ㅠㅠ 번거롭게 죄송하지만 어떤 파일인지 알려주실수 있을까요??
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.06.02 09:37 신고 안녕하세요.
    아 코드가 없군요..
    https://tykimos.github.io/2017/06/10/CNN_Data_Augmentation/
    여기서 참고하시면 더 도움이 되실 것 같습니다
    저도 여기서 참고해서 그대로 사용했어요~
  • 프로필사진 pjh 2020.06.02 14:05 감사합니다!!
  • 프로필사진 hwan5252 2019.12.04 17:01 안녕하세요! 포스팅 글 보면서 공부 중인 사람입니다. 혹시 강아지 사진들을 크롤링 하셨을 때 몇천장씩 크롤링하셨던데 저는 구글 크로링을해보니 600장 정도 밖에 안되던데 혹시 어느방법으로 크롤링 하셨는지 알려주실 수 있을까요??
  • 프로필사진 이수진의 블로그 이수진의 블로그 2019.12.04 18:55 신고 안녕하세요.
    구글 이미지 크롤링 하실 때 scroll을 내리셔야 추가 이미지가 upload됩니다.
    그냥 현재 상태로 크롤링 하시면 이미지 수집이 몇 장 안되실 거에요~
    scorll을 내리시는 코드를 추가하신 뒤 수집해보셔요~
  • 프로필사진 LIly 2019.12.05 00:23 안녕하세요 ! 포스팅글 너무 잘봤습니다... 저도 딥러닝초보자인데 ㅠㅠ 제가 케라스를 이용해서 과일 가격예측을 해보고 있는데 잘안되서요.. 혹시 알려주실수 있을까요???
  • 프로필사진 이수진의 블로그 이수진의 블로그 2019.12.05 09:33 신고 네 lsjsj92@naver.com 으로 메일 주시면 답변 드릴게요~
  • 프로필사진 gfdfff 2019.12.10 02:40 안녕하세요 혹시 imagedatagenerator 를 쓰게되면 어느어느 부분을 고쳐야 하고 어디다 넣어야하나요?ㅜㅜ
  • 프로필사진 이수진의 블로그 이수진의 블로그 2019.12.10 09:26 신고 안녕하세요
    딥러닝으로 훈련시키지 전에 사용합니다.
    어느 부분을 고쳐야 한다는 것은 상황마다 다르기 때문에 imagedatagenerator의 사용 방법을 먼저 찾아보시는 것이 좋을 것 같아요~
  • 프로필사진 MentalBroke 2019.12.15 07:28 안녕하세요 블로그를 보고 공부중인 학생입니다. 깃에 있는 코드를 가지고 강아지 품종을 11종을 10시간 정도 훈련을 시켰는데 acc가 0.75부근에서 마지막에 0.68로 떨어지고 훈련이 종료되었습니다.. 그 전까지는 꾸준히 acc가 상승하여 0.75부근 까지 올라 갔는데 갑자기 떨어져서.. .당황스럽고 혼란스럽습니다. 혹시 어떠한 부분이 문제일까요....?
    (데이터는 11종 합하여 총 6만4천개의 데이터로 훈련을 시켰습니다....도와주세요..ㅠㅠㅠㅠㅠㅠㅠㅠㅠ)
  • 프로필사진 이수진의 블로그 이수진의 블로그 2019.12.15 13:33 신고 안녕하세요
    여러 이유가 있습니다.
    1. 모델의 문제
    2. learning rate 설정 문제
    3. 데이터 셋 문제
    등등 여러 문제가 있을 것 같습니다
    일단, early stopping 을 걸어두시는 것이 좋겠네요. 이것을 해놓으시면 best 모델을 뽑을 수 있습니다. 그러면 0.75 모델을 가져올 수 있습니다.
  • 프로필사진 MentalBroke 2019.12.16 17:28 깃허브에 있는 코드를 실행했을때 early stopping이 걸려있고 save best only=true도 설정 되어있는데도 0.68모델을 마지막에 가져왔는데 그러면 어떻게 해야 이전 best모델을 뽑을수 있을까요?ㅜㅜ
  • 프로필사진 이수진의 블로그 이수진의 블로그 2019.12.17 08:44 신고 음.. 그럼 베스트 모델이 뽑힌 것입니다.
    0.68 모델이 베스트였던거죠
    말씀하신 0.75부근까지 올라갔다는건 아마 early stopping 카운트 내부에 있었던 것 같네요.
    val loss가 줄여져야 베스트 모델로 적용됩니다. 그게 안줄여지면 training 은 계속 하되 (acc가 올라가는 것 처럼 보임) best모델은 아닌것이죠
  • 프로필사진 이수진의 블로그 이수진의 블로그 2019.12.17 08:44 신고 음.. 그럼 베스트 모델이 뽑힌 것입니다.
    0.68 모델이 베스트였던거죠
    말씀하신 0.75부근까지 올라갔다는건 아마 early stopping 카운트 내부에 있었던 것 같네요.
    val loss가 줄여져야 베스트 모델로 적용됩니다. 그게 안줄여지면 training 은 계속 하되 (acc가 올라가는 것 처럼 보임) best모델은 아닌것이죠
  • 프로필사진 dsa 2020.01.31 00:17 저장해서 np.load 하는과정에서 에러가 나는데 혻혹시 왜그런지알수있을까요
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.01.31 06:53 신고 안녕하세요.
    에러 코드를 보여주시면 더 좋을 것 같습니다
  • 프로필사진 dsada 2020.01.31 02:26 test 이미지파일 넣어서 테스트해보려고하는데요 if문에 프린트부분으로 알수있는부분있잖아요 거깅

    ---------------------------------------------------------------------------------------------------------------------------
    ndexError Traceback (most recent call last)
    <ipython-input-12-c6413ccb49f0> in <module>()
    9 elif pre_ans == 3: pre_ans_str = "Stephanolepis cirrhifer"
    10 elif pre_ans == 4: pre_ans_str = "scomber mackerel"
    ---> 11 if pre_ans == 0 : print("해당 "+filenames[cnt].split("\\")[1]+"이미지는 "+pre_ans_str+"로 추정됩니다.")
    12 if pre_ans == 1: print("해당 "+filenames[cnt].split("\\")[1]+"이미지는 "+pre_ans_str+"으로 추정됩니다.")
    13 if pre_ans == 2: print("해당 "+filenames[cnt].split("\\")[1]+"이미지는 "+pre_ans_str+"로 추정됩니다.")

    IndexError: list index out of range
    ----------------------------------------------------------------------------------------------------------------------------------
    이렇게 에러가뜨는데 이거 어떻게손봐야하죠
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.01.31 06:54 신고 안녕하세요.
    배열 인덱스가 초과되었네요.
    아마 filenames쪽 배열 인덱스 인 것 같은데요.
    제가 설정한 파일 경로와 dsada님이 설정한 경로가 다르기 때문에 그럴겁니다. 즉, 환경이 저와 다르기 때문이죠.
    경로 path가 split 되었을 때 저 배열 값이 맞는지, 적용되는지 체크해보시면 될 것 같습니다.
  • 프로필사진 놀자맨 2020.03.16 14:04 안녕하세요! github 에 볼 수 있는 코드가 잇을까요~?
    지금은 안보이는것 같아서요!
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.03.16 17:23 신고 안녕하세요.
    아뇨 현재도 존재합니다.
    제 공지사항 -> github 주소 들어가시면 keras_basic 이름의 repo가 있습니다. 여기서 확인하시면 되어요~
  • 프로필사진 2020.03.17 22:36 비밀댓글입니다
  • 프로필사진 2020.03.18 09:36 비밀댓글입니다
  • 프로필사진 김동민 2020.04.23 16:04 혹시 이미지 추출한 것 모아서 최종적인 답안을 낼 수 있을까요
    예를 들어 img1(100장 비교)은 고양이 입니다에 80장이 고양이이고 20장이 강아지로 나오면
    종합적으로 고양이 입니다로 나오게 할 수 있을까요
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.04.23 22:26 신고 안녕하세요.
    음.. 정확히 무슨 질문인지 잘 이해가 가질 않습니다 ㅠㅠ
    이미지 추출한 것을 모아서 최종적인 답안을 낸다는것이 무엇일까요?

    100개의 이미지 세트가 있으면 1개 1개 정답을 내는 것이 맞지 않을까요??
    100개 각각에 대한 카테고리 예측을요!
  • 프로필사진 김동민 2020.04.24 13:52 아... 예를들어서
    강아지의 A종을 분석했는데
    100개의 이미지 중
    80개는 A종
    20개는 B종이 나올 경우
    종합적으론 80프로 확률로 A종입니다.
    라는걸 색출해보고 싶은 내용입니다..
    하하 죄송합니다.. 정리를 잘못해서;ㅁ;
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.04.24 17:15 신고 아 그런 말씀이시군요.

    음.. 종합적으론 80% 확률로 A종이라고 말하기 보다는 '해당 데이터 집합에서는 80% 정도의 데이터가 A 데이터로 이루어진 것으로 추정 됩니다' 라는 방식으로 표현하면 더 좋겠네요.
    어떻게 보면 모집단을 추정하는 것이라고 생각되네요 ㅎㅎ

    해당 방법은 나오게 할 수 있습니다.
    간단한 프로그래밍 방법으로 해결할 수 있을 것 같네요.
    예를 들어,
    모델이 예측한 A, B 군의 count를 각각 센다음
    count(A) / total 하면 A 확률, count(B) / total 하면 B의 확률이 나오겠네요~
  • 프로필사진 윤영진 2020.05.07 16:04 개발자님 제가 따라할려고 하는데 제 이미지파일을 dog_spices_image_data.npy 로 변환할려고 하는데 이것에 관련된 것은 어디서 찾을 수 있을까요?
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.05.08 10:09 신고 안녕하세요.
    npy 파일로 변환을 하시는 것이면
    image -> python image upload (RGB값) -> numpy 배열로 변환 -> np.save()를 통해 저장할 수 있습니다
  • 프로필사진 happy 2020.05.11 15:54 강아지 말고 고양이 품종에 따라 나눠지나요??
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.05.11 17:45 신고 안녕하세요 네 데이터만 바꾸면 못할 것 없죠 ㅎㅎ
  • 프로필사진 ㅎㅎ 2020.05.16 18:29 ValueError Traceback (most recent call last)
    <ipython-input-5-a458c52d8f9f> in <module>
    11 session = tf.compat.v1.Session(config=config)
    12
    ---> 13 X_train, X_test, y_train, y_test = np.load('./numpy_data/multi_image_data.npy')
    14 print(X_train.shape)
    15 print(X_train.shape[0])

    C:\ProgramData\Anaconda3\lib\site-packages\numpy\lib\npyio.py in load(file, mmap_mode, allow_pickle, fix_imports, encoding)
    451 else:
    452 return format.read_array(fid, allow_pickle=allow_pickle,
    --> 453 pickle_kwargs=pickle_kwargs)
    454 else:
    455 # Try a pickle

    C:\ProgramData\Anaconda3\lib\site-packages\numpy\lib\format.py in read_array(fp, allow_pickle, pickle_kwargs)
    737 # The array contained Python objects. We need to unpickle the data.
    738 if not allow_pickle:
    --> 739 raise ValueError("Object arrays cannot be loaded when "
    740 "allow_pickle=False")
    741 if pickle_kwargs is None:

    ValueError: Object arrays cannot be loaded when allow_pickle=False
    잘되던가 싶더니 갑자기 이런 에러가 나오는데 혹시 왜이러는지 알려주실수 있을까요...?
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.05.17 16:11 신고 안녕하세요.
    에러 내용을 보니까 numpy load할 때 allow_pickle 파라미터 옵션을 True로 하셔야 할 것 같아요~

    np.load('./asdf.txt', allow_pickle=True)이런식으로요!
  • 프로필사진 랄라 2020.06.01 22:15 안녕하세요! 혹시 이미지 크롤링은 구글에서 하나하나 다운 받으신 건가요?? 사진이 많이 필요한거 같은데 코드 이용해서 크롤링했더니 일정 개수 이상 다운이 안되고 사진의 화질도 떨어져서요ㅠㅠㅠ
    혹시 크롤링 방법이 있다면 조언 부탁드려요ㅠㅠㅠ
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.06.02 09:38 신고 네 저는 구글 이미지에서 크롤링했습니다.
    화질이나 이런 것에서 큰 이상은 없었어요.
    일정개수 이상 다운이 안되는 것은 구글 이미지는 밑으로 스크롤바를 내리거나, 더보기 버튼을 눌러야 합니다. 해당 기능을 구현해주셔야 해요~
  • 프로필사진 랄라 2020.06.08 21:42 답변 감사합니다ㅠㅠㅠㅠㅠㅠ 혹시 강아지 사진들 크롤링 하실 때 팁을 얻을 수 있을 까요? 저는 그냥 강아지 이름 검색하고 이미지에 나오는 사진들은 다 가져오는 코드로 짰는데 강아지 사료나 강아지 사진이 들어간 핸드폰케이스 이런것도 같이 가져오더라구요... 질 좋은 사진들을 크롤링 하려면 어떻게 해야 하는지 알 수 있을까요...??!
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.06.09 09:34 신고 안녕하세요.
    아 ㅠㅠ 그런 것은 어쩔 수가 없어요..
    저도 일단 크롤링 하고 손수 작업으로 한 번 검정했습니다. (전 직장 동료와 함께..)

    아니면, 강아지 데이터로 이미 pre-train된 모델을 사용하셔서 predict를 하면 얘가 강아지인지 아닌지 판단해주는데 강아지라고 판단 안하는 이미지는 전부 제거하는 방법으로 하는 방법도 있습니다.
  • 프로필사진 랄라 2020.06.15 19:10 와아... 직접 해야하는군요ㅠㅠㅠㅠㅠㅠㅠ
    답변 감사합니다ㅠㅠㅠㅠㅠ 많은 걸 얻었어요!!!
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.06.15 22:10 신고 넵 ㅎㅎ 감사합니다. 부디 도움이 되었길 바랍니당
  • 프로필사진 매운세데스 2020.06.19 22:56 안녕하세요 보고많은 도움 얻는중입니다
    제가 여줘보고 싶은게 하나있는데
    맨처음에 이미지 데이터를 입력해야하는데
    이 이미지 데이터들을 전처리 하는 과정이 조금 궁금해서여
    저는 프레임워크를 안쓰고 opencv로 처리하는중이고 ..이미지 데이터들을 다 다운받았어여 대략 40000만장 정도되는데 ,,
    전처리 하는 문제보다는 이 이미지 파일들을 어떻게 불러와야되는지.... 한두장이 아닌데,,,,
    어떻게 넣으신건지 자세한 과정을 좀 알고싶은데 도움을 주실수 있으신지요 ㅠㅠㅠㅠ
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.06.20 16:03 신고 안녕하세요.

    일단 제가 생각하기로는 메모리 문제가 클 것 같군요.
    아마 local에서 작업하시기엔 힘들 수도 있을 것 같습니다.

    아마 제가 생각하기로는
    1. 이터레이션 구축 ( yield 로 데이터 불러오기)
    2. 불러온 데이터로 훈련을 진행하는 방법

    https://stackoverflow.com/questions/7883962/where-to-use-yield-in-python-best

    참고해보시면 좋을 것 같습니다.
  • 프로필사진 이필모 2020.07.23 16:07 안녕하세요! 데이터를 넣어서 트레이닝은 시켯는데 새로운 데이터를 가져와서 예측은 어떻게 하는지 궁금합니다! 파이썬이 아닌 텐서플로우를 사용하였습니다 ㅠ
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.07.23 16:31 신고 안녕하세요.
    일단, 하나 짚고 넘어가자면 파이썬이 아닌 텐서플로우를 사용했다는 말은 모순입니다.
    tensorflow는 Python의 패키지입니다.

    새로운 데이터에 대한 predict은 model.predict() 함수 안에 데이터를 넣어주시면 됩니다!
  • 프로필사진 show 2020.11.06 12:43 import keras.backend.tensorflow_backend as K
    이부분 에러가 나요 ㅠㅠ
    No module named 'keras.backend.tensorflow_backend'; 'keras.backend' is not a package
    이런 에러 나옵니다
  • 프로필사진 show 2020.11.06 13:03 뭔가 텐서랑 케라스 버전문제인듯 합니다
    텐서 , 케라스 버전을 알수있을까요?
  • 프로필사진 이수진의 블로그 이수진의 블로그 2020.11.06 22:32 신고 안녕하세요.

    네 아마 버전 문제일 확률이 높습니다. 해당 글은 작성된 시기가 2년이 넘어서요. 현재는 Tensorflow 2.x 버전으로 다 되어서 그럴겁니다.

    당시에는 Tensorflow1.3, Keras 2.2.2로 기억을 합니다.
댓글쓰기 폼