2020. 5. 30. 0:32

 

 

이전에 컴퓨터를 새로 맞추고 나서 드리트리 렌더라는 영상 보간 프로그램을 사용하고 있었는데

얼마 전부터 동영상 플레이어를 실행하면 이렇게 오류가 발생하여 드미트리렌더가 동작하지 않고 있다.

컴퓨터 부품을 바꾸거나 한적도 없는데 이런 에러가 발생하고 있는 상황이다.

사실 이렇게 에러가 발생한것은 이번이 두번째인데 이전에는 에러 리포트를 출력해서

제작자에게 보냈더니 키를 새로 보내줘서 다시 등록하여 사용할 수 있었다.

그때 제작자가 혹시 버추얼박스를 쓰냐고 물어보길래 그렇다고 했는데 아무래도 버추얼박스가 드미트리 렌더에 영향을 주는것 같다.

내 생각으로는 버추얼박스가 문제라기 보다는 네트워크 어댑터의 MAC 주소를 받아와서 다른 컴퓨터에서 실행시키는지 확인하는 방식이 아닐까 싶다.

아마 전체 어댑터중에 가장 처음나오는 어댑터의 MAC 주소를 등록해서 검사하는 방식이 아닐까?

실제로 이런식으로 가장 처음에 나오는 MAC 주소를 등록해서 컴퓨터를 구분하는 방식을 쓰는곳을 본적이 있다.

그리고 버추얼박스나 일부 VPN 등을 설치하면 어댑터가 추가되기 때문에 가장 처음 나오는 MAC 주소가 변경되어 컴퓨터가 변경되었다고 인식하는게 아닐까 싶다.

어쨌든 이번이 두번째 발생한거라서 차라리 다른 영상 보간 프로그램으로 갈아탈까 싶은 생각이 있었는데

SVP 프로그램을 살펴보다가 Splash라는 무료 영상 보간 프로그램이 있다는것을 알 수 있었다.

Splash는 다른 보간 프로그램과의 경쟁에서 밀려서 결국 무료로 풀었다는것 같다.

 

 

https://mirillis.com/download-splash-free-hd-video-player

 

Download - Splash 2.0 - The ultimate free HD video player

 

mirillis.com

Splash는 다른 보간 프로그램과는 다르게 동영상 플레이어 형식으로 설치되기 때문에

별다른 설정이 필요없으며 사용해본 결과 60FPS 까지 영상을 보간해 주는것을 확인할 수 있었다.

 

 

드미트리는 모니터의 프레임을 따라가기 때문에 144hz 모니터의 경우 144프레임까지 영상을 보간해주지만

스플래시는 60프레임으로 고정되어 있다.

근데 나같은 경우는 막상 써보니 드미트리와 부드러움의 차이를 별로 느끼지 못했다.

이건 그냥 내 눈의 문제겠지만 좋았던점은 고품질 영상을 드미트리를 사용하여 보간했을 때

내 그래픽카드 점유율이 60%를 넘어가면서 고주파를 내뿜었는데

스플래시의 경우 GPU 사용률이 그렇게 높지 않았다.

단순히 프레임의 차이때문인지 더 좋은 방식을 쓰고있는건지는 모르겠지만 나같은 경우는 단순히 그래픽카드에서 고주파가 안나오니 좋았다.

사용해보니 단점도 몇가지 눈에 띄었는데

우선 가장 큰 문제점이 SMI 자막 형식을 지원하지 않는것 같다. 뭔가 사용할 수 있는 방법이 있는지는 모르겠지만 일단 기본 상태에서는 SMI 자막을 전혀 사용할 수 없었다.

또한 ASS 형식의 자막은 사용 가능했지만 이런 자막의 경우 자막 제작자가 글자를 세로로 세운다거나 여러가지 형태로 자막을 표시할 수 있는데 스플래시 플레이어는 그런 형태로 자막을 출력하지 못하는 것으로 보인다.

또 일부 코덱을 지원하지 않는건지 일부 영상이 깨져서 표시되지 않았다..

 

 

잠깐 사용해 봤을 때 이런 단점들이 있었지만

이런 단점들을 커버할 수 있는 최고의 장점인 무료라는 장점이 있으니

드미트리나 SVP 등의 구매를 고려하고 있다면 그 전에 한번 설치해볼만한 프로그램이라고 생각된다.

 

 

플레이어 세팅은 이쪽 보고 따라했습니다.

 

 

https://quasarzone.co.kr/bbs/qb_tip/views/15501

 

영상 보간 기능이 있는 Splash Video Player

라데온 5700 시리즈부터 플루이드모션 지원이 끊기면서 컴퓨터용 영상 보간 기능 대안을 찾는 분들이 있으실듯…

quasarzone.com

 

'IT > 기타' 카테고리의 다른 글

Virtualbox 네트워크 설정 다했는데 인터넷이 안될때  (0) 2022.01.14
Jellyfin 미디어 서버 소개  (2) 2020.12.24
SMPlayer + SVP 4 설정하기  (0) 2020.12.24

 2020. 4. 30. 17:42

 

 

서버가 실행된 상태에서 HTTP 요청을 받으면

미리 기록해놓은 텍스트 혹은 스크립트 파일을 HTTP 리스폰스 형식으로 되돌려주는 간단한 서버다

제작 도중까지는 더 복잡한걸 생각했는데 생각해보니까 복잡하게 만들어봤자 귀찮고 좋을것도 없을것 같아서 이렇게 됏다.

한번에 여러개의 포트를 열어서 사용할 수 있고

지원하는 스크립트는 파이썬, 쉘, 배치 이렇게 3가지 종류이다.

이런 스크립트 파일이나 지정된 메세지를 보내려면 이 프로그램 자체 스크립트를 작성해야 한다.

자체 스크립트로 할 수 있는것은 포트별로 다른 요청을 주거나 HTTP 리스폰스의 컨텐츠 타입이나

서버가 실행된 상태에서 브라우저를 이용하여 스크립트파일에 요청을 보내면

서버에서 스크립트가 실행된 다음 스크립트에서 리턴한 텍스트 메세지를 클라이언트에게 돌려준다.

또한 리퀘스트로 전달한 GET, POST 파라미터를 스크립트에 전달하는 기능도 있기 때문에

파라미터에 따라 스크립트의 동작을 다르게 하거나 리턴되는 메세지를 다르게 할 수도 있을것이다.

그리고 내가만든 로거 라이브러리를 사용해서 로그도 잘남기게 만들어놨다.

기본 실행하면 실행 로그랑 클라이언트 접속 로그만 남지만

디버그모드로 실행하면 클라이언트가 전송한 메세지, 클라이언트에게 전송한 메세지까지 전부 다 남긴다.

서버 구조도 나름 신경써서

소켓 연결만 하는 네트워크 스레드와

HTTP 메세지를 처리하는 워커스레드로 구성했는데

워커스레드의 개수는 최소 한개 최대 CPU 논리코어수 -1 개가 만들어지도록 했다.

스레드간 통신은 메세지 큐 방식으로 만들었고

코드도 최대한 C++ 표준 코드를 사용하여 만들려고 노력했는데 쉽지는 않아서

결국 리눅스 환경에서 컴파일되는 코드랑 윈도우 환경에서 컴파일되는 코드를 따로 구분하는 방식으로 만들었다.

그래서 리눅스 환경에서도 컴파일이랑 동작이 잘 되는걸 확인했고

아직 개선하야 할 점이 많이 있기는 하지만 틈틈히 만들어서 이정도 만들어진게 기뻐서

1.0 버전으로 릴리즈해서 올렸다

사실 톰캣이랑 비슷한 기능이기도 한데 톰캣과 비교해서 장점은

별다른 설정이 필요 없고 API에 대한 테스트를 해볼 때 별도의 웹 컴포넌트를 작성할 필요가 없다는 장점이 있다.

그리고 이 서버 프로그램으로 현재 바이너리 파일 전송이 안되는데

바이너리 파일 전송기능을 넣을까 하다가 API 테스트용 프로그램에 그런 기능이 필요할까 싶어서 일단 안넣었다.

그래서 브라우저에서 아이콘 파일을 요청할경우 경로상에 아이콘파일이 존재해도 응답을 보낼 수가 없다.

혹시라도 나중에 생각이 바뀌면 넣어야겠음

 

윈도우 콘솔에서의 실행 방법 -g는 디버그모드로 실행하는 명령어다

 

브라우저로 서버에 접속해서 받은 응답
sample 스크립트 파일 형식

 

로그파일이 이렇게 남았다.

 

 

 

 

https://github.com/AhatLi/AhatDummyServer

 

AhatLi/AhatDummyServer

Contribute to AhatLi/AhatDummyServer development by creating an account on GitHub.

github.com

 

 

지금 와서 보니까 개선할점이 많이 보이는것 같다...

나중에 여유가 된다면 개선을 해봐야겠다.

집에서 햄버거 빵을 구워 보았다.

 

 

재료는 정확하게 잰건 아니지만 이렇게 들어갔다.

강력분 420g

박력분 80g (강력분이 부족해서 박력분 조금 넣었음)

인스턴스 드라이 이스트 10g

물 250g

올리고당 50g(집에 설탕이 없어서 올리고당 넣었음)

소금 5g

마가린 40g (마찬가지로 버터가 없어서)

계란 1개

계란 노른자 1개(빵 굽기전에 위에 발라줬음)

대충 이렇게 넣고 집에 제빵기에 넣고 돌려서 반죽을 했다.

제빵기가 반죽도 다 해주고 1차발효까지 다 해주니까 정말 편하다.

가만두면 2차발효까지 시작해버리니까 그 전에 취소하고 다시 꺼내서 모양을 잡아줬다.

동그랗게 말아서 납작하게 한 후에 20분동안 종이 호일에 두었다가 오븐에 넣고 구워주었다.

 

약 20년 전부터 우리집 구석에 박혀있던 제빵기. 깨끗하게 닦에서 사용했다.
약 10년전에 5만원주고산 전기오븐. 저정도 반죽 크기는 딱 4개밖에 4, 4, 2개씩 안들어가서 3번 구웠다.

 

지금까지 만들어봤던 빵중에서 가장 빵다운 빵이 만들어진것 같아 기쁘다.

전에는 빵을 만들어도 빵이 아니라 가스찬 밀가루덩어리 느낌이었는데

이번에 구워진건 겉에도 노릇노릇한데도 딱딱하지 않고

손가락으로 조금 눌러도 다시 원래대로 돌아오는게 꽤나 그럴듯하다

이번에 이런 기본적인 빵을 만들었으니 다음에는 좀 더 맛있는 빵을 만들 수 있을것 같다.

이번에 만든 빵은 반으로 갈라서 속을 채워넣고 먹을 생각이다.

'생활 > 요리' 카테고리의 다른 글

아몬드가루로 바나나 파운드케이크 만들기  (0) 2022.05.06
뒷다리살 수비드로 해먹기  (0) 2022.04.11
전에 만든 팥양갱  (0) 2020.12.24
앙금쿠키 만들기  (0) 2020.12.24

2020. 4. 19. 16:06

 

요즘 엘로나 플러스를 하는 중이다.

종족은 거미로 하는 중인데 거미종족은 장비를 반지 두개와 원격무기밖에 사용할 수가 없고

전체적으로 스탯이 낮지만 스피드 만큼은 다른 종족보다 빠른 편인다.

그래서 근접 공격력과 방어력이 너무 낮아 근접 전투는 포기하고 마법 캐릭터로 키우는 중이다.

동료는 가장 처음에 받은 소녀와 룰위에게 받은 흑천사 이렇게 둘을 데리고 다니는 중이고

곧 다른 동료를 하나 더 데리고 다닐까 하고 생각하는 중이다.

소녀는 약한 동료라고 생각하고 있었는데

내가 1부 보스에게 마나를 다 쓸때까지 마법의 화살을 날려도 반피도 못깎고 도망가려고 하고 있었을 때

소녀가 갑자기 시간정지를 걸더니 체인공격으로 20턴만에 보스 피를 반 넘게 깎아버리는 것을 보았다.

시작할때부터 잠재력도 맞춰주고 내가 장비를 사용할 수 없으니 가장 좋은 장비로 맞춰줘서 강해진것 같다

소녀에게 준 장비들

 

2부에서는 스피드를 깎아서 장비 착용 슬롯을 늘릴 수 있는 방법이 있다고 하는것 같으니

다른 장비를 착용할 수 있도록 장비 슬롯을 늘려볼 생각이다.

 

'생활 > 게임' 카테고리의 다른 글

엘로나 망령공주  (0) 2021.01.01

2020. 4. 12. 19:54

 

저는 요즘 소액으로 주식 투자를 해보고 있는 중인데

소소하게 투자를 해서 소소하게 잃고있는 중입니다.

그런데 저번주에는 갑자기 어떤 회사 주식에 꽂혀서 그 주식을 몰빵해서 샀고

가격이 내려도 추가 구입해서 평단가를 맞추는 등의 노력을 했지만

금요일날 결국 그 회사 주식이 폭락하여 3000 초반대까지 떨어져 원금의 10퍼센트를 잃고 손절하고 말았습니다.

그러다가 오늘은 꿈에서 손절한 주식이 8000원까지 올라가는 악몽을 꾸고 말았습니다.

결국 내가 뭐가 부족해서 계속 잃는것인지 생각해보았는데

생각해보면 제가 샀던 주식이 올랐던 적도 꽤나 있었습니다. 그런데도 손해만 보고 있었고요

저에게 부족한건 적절한때 손절 익절을 하는 능력(?)이 부족했던것이 아닐까 싶습니다.

그래서 생각해봤는데 손절 익절을 mts에 모두 맡기면 오히려 잃는 돈이 줄어들지 않을까 싶었고

주식을 구입한 후 +-3%가 되면 자동으로 판매를 하도록 설정을 해놓으면 어떨까 하고 생각을 했습니다.

보기에는 그럴듯 하지만 진짜로 저렇게 한다고 이익을 볼 수 있을까요?

물론 실제로 저런식으로 거래를 해서 이익을 보는 사람도 많이 있겠지만

결국 저런 방식으로 거래를 하는것도 오를 주식을 사야 얻는거고 또 오를 타이밍에 사야 이익을 볼텐데요

오를 주식을 미리 알 수는 없지만 어떤 상황에서 사야 오를지에 대해서 알 수 있을까 싶어서

과거의 자료를 보고 간단하게 차트를 만드는 코드를 만들어보았습니다.

이 코드를 만들기 위해서 우선 주식 프로그램에서

저번주 금요일 거래량이 많았던 종목들의 하루치의 데이터를 다운받았습니다.

 

 

 

 

그리고 데이터를 엑셀 파일로 다운받았습니다.

그리고 파이썬에서 다운받은 엑셀 파일을 읽어들여 제가 원하는 결과를 출력하도록 코드를 작성하겠습니다.

규칙은 간단한데

어떤 시점에서 주식을 구입했을 경우 해당 주식이 +3% 가 되는것이 먼저인지 -3%가 되는것이 먼저인지를

출력하는것 입니다.

데이터는 분단위의 봉차트 데이터로 시가 고가 저가 종가에 다른 데이터도 더 있지만

시가 고가 저가 데이터만을 사용하도록 하겠습니다.

만약 09:00에 시가로 주식을 개당 1000원에 구입했을 경우

09:05분에 고가가 1030이 되고 09:06분에 저가가 970원이 된다면

09:05분에 1030원에 에 익절하는 형식입니다.

아래는 작성한 코드입니다.

 

 

import pandas as pd
import os
import matplotlib.pyplot as plt
from matplotlib import pyplot
import datetime
from matplotlib import dates

path = "./excel/"
file_list = os.listdir(path)

print ("file_list: {}".format(file_list))

plt.rcParams["figure.figsize"] = (14,7)
plt.rcParams['lines.linewidth'] = 2
plt.rcParams['lines.color'] = 'r'
plt.rcParams['axes.grid'] = False 

p = 0.03

for file in file_list:
    if file.find('xlsx') < 0 and file.find('xls') < 0:
        continue
    print(file)
        
    xlsx = pd.read_excel(path + file)
    color = []
    for i in range(len(xlsx['시가'])):
        color.append(0)
    
    for i in reversed(range(0, xlsx.shape[0])):
        for j in reversed(range(0, i-1)):
            if xlsx['시가'][i] + xlsx['시가'][i] * p < xlsx['고가'][j]:
                color[i] = 1
    #            print(xlsx['시간'][i], ",", xlsx['시가'][i], ",", p, ",", "익절" , xlsx['고가'][j] , xlsx['시간'][j], color[i])   
                break
            if xlsx['시가'][i] - xlsx['시가'][i] * p > xlsx['저가'][j]:
                color[i] = 2
    #            print(xlsx['시간'][i], ",", xlsx['시가'][i], ",", p, ",", "손절" , xlsx['저가'][j] , xlsx['시간'][j], color[i])     
                break
    
    fig, ax = plt.subplots()
    converted_dates = list(map(datetime.datetime.strptime, xlsx['시간'], len(xlsx['시간'])*['%m/%d,%H:%M']))
    x_axis = converted_dates
    formatter = dates.DateFormatter('%H:%M')
    
    ax.xaxis.set_major_formatter(formatter)    
    ax.plot([],[])
    ax.scatter(x_axis, xlsx['시가'], c = color)
    
    plt.show()

 

결과를 차트로 출력하는데

위의 규칙을 그대로 사용하여

청록색일때 구입하면 익절

노란색일때 구입하면 손절

보라색일때 구입하면 손절도 익절도 하지 않습니다.

결과를 보면 저번 금요일 시점의 이 주식은 정말 특별한 타이밍이 아니면 이익을 보기 힘들었을거라는 결과입니다.

다른 회사들의 결과를 보겠습니다.

 

 

 

 

돈벌기 참 힘드네요

결과만 보면 주식 가격이 급격하게 내려갔을 때 구입하면 가격이 다시 회복되면서 익절을 하게되는 경우가 많은데

가장 첫번째 그래프처럼 다시 안올라가고 쭉 내려가기만 하는 경우도 있어서 그경우는 무조건 손해만 입겠네요.

결국 타이밍도 중요하지만 좋은 종목을 골라서 거래하는게 더 중요한것 같습니다.

2020. 4. 3. 14:14

 

인터넷에 있는 케라스 이미지 분류 코드를 이용해 이미지 분류 연습을 해 보았습니다.

연습을 위해 이미지셋을 다운받아서 테스트 해보았더니 그럭저럭 90퍼센트 이상의 정확도가 나오는것을 확인할 수 있었습니다.

하지만 이미 있는 이미지로만 해보면 재미가 없으니 새로운 이미지 셋을 만들어 연습해 보았습니다.

 

깔끔하게 잘 정리된 이미지셋들

우선 이미지셋을 만들기 위해 제가만든 이미지 다운로더 프로그램을 사용하여 이미지를 다운로드 하였습니다.

 

이번에 테스트 해볼 이미지셋은 아이돌 마스터의

시마무라 우즈키,

혼다 미오,

시부야 린

이렇게 세명의 캐릭터 이미지로 분류되는 이미지셋입니다.

 

각각 캐릭터 이미지를 약 100개씩 준비하였습니다.

그런데 이미지들이 통일성이 없고 배경색이나 색들도 완전히 각양각색입니다.

이미지마다의 공통점이라고는 해당 캐릭터들의 얼굴이 들어가 있다는점 밖에는 없네요

이런 이미지로 이미지 분류가 가능할지 잘 모르겠습니다.

각각의 이미지를 uzuki, rin, mio 폴더에 집어넣고 이미지셋을 데이터로 만들었습니다.

 

 

from sklearn.model_selection import cross_validate
from sklearn.model_selection import train_test_split
import cv2
from PIL import Image
import os, glob
import numpy as np

caltech_dir = "./lib/img"
categories = ["mio","rin","uzuki"]
nb_classes = len(categories)

image_w = 64 
image_h = 64
pixels = image_w * image_h * 3

X = []
Y = []
for idx, cat in enumerate(categories):
    print(cat)
    label = [0 for i in range(nb_classes)]
    label[idx] = 1
    image_dir = caltech_dir + "/" + cat
    print(image_dir)
    files = glob.glob(image_dir+"/*.jpg")
    for i, f in enumerate(files):
        print(f)
        img = cv2.imread(f)
        img = cv2.resize(img, None, fx=64/img.shape[1], fy=64/img.shape[0])
        X.append(img/256)
        Y.append(label)
        
X = np.array(X)
Y = np.array(Y)
X = np.array(X)
Y = np.array(Y)
X_train, X_test, Y_train, Y_test = train_test_split(X,Y)
xy = (X_train, X_test, Y_train, Y_test)

np.save("./lib/obj.npy", xy)

그 후 이미지 데이터를 이용하여 학습을 진행하였습니다.

 

from keras.models import Sequential
from keras.layers import MaxPooling2D
from keras.layers import Conv2D
from keras.layers import Dropout, Activation, Dense, Flatten
import h5py
import numpy as np
import cv2
import os

categories = ["mio","rin","uzuki"]

nb_classes = len(categories)

X_train, X_test, Y_train, Y_test = np.load('./lib/obj3.npy', allow_pickle=True)
print('Xtrina_shape', X_train.shape)

model = Sequential()
model.add(Conv2D(32, (3, 3), input_shape=X_train.shape[1:], padding='same'))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Conv2D(64, (3, 3), padding='same'))
model.add(Activation('relu'))

model.add(Conv2D(64, (3, 3)))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Flatten())
model.add(Dense(512))
model.add(Activation('relu'))
model.add(Dropout(0.5))

model.add(Dense(nb_classes))
model.add(Activation('softmax'))

model.compile(loss='binary_crossentropy', optimizer='Adam', metrics=['accuracy'])
hdf5_file = "./lib/obj-model.hdf5"
if os.path.exists(hdf5_file):
    model.load_weights(hdf5_file)
else:
    model.fit(X_train, Y_train, batch_size=32, epochs=50)
    model.save_weights(hdf5_file)

score = model.evaluate(X_test, Y_test)
print('loss=', score[0])        # loss
print('accuracy=', score[1])    # acc

 

마지막으로 트레이닝 된 데이터를 이용하여 테스트셋의 정확도를 확인해 보겠습니다.

중복되지 않는 이미지를 따로 모아 테스트 하였습니다.

 

 

from keras.models import Sequential
from keras.layers import MaxPooling2D
from keras.layers import Conv2D
from keras.layers import Dropout, Activation, Dense, Flatten
import h5py
import numpy as np
import cv2
import os

categories = ["mio","rin","uzuki"]

nb_classes = len(categories)

model = Sequential()
model.add(Conv2D(32, (3, 3), input_shape=X_train.shape[1:], padding='same'))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Conv2D(64, (3, 3), padding='same'))
model.add(Activation('relu'))

model.add(Conv2D(64, (3, 3)))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Flatten())
model.add(Dense(512))
model.add(Activation('relu'))
model.add(Dropout(0.5))

model.add(Dense(nb_classes))
model.add(Activation('softmax'))

model.compile(loss='binary_crossentropy', optimizer='Adam', metrics=['accuracy'])

hdf5_file = "./lib/obj-model.hdf5"
model.load_weights(hdf5_file)

import glob

X = []
Y = []

files = glob.glob("./lib/img/test/*.jpg")
for i, f in enumerate(files):
    print(f)
    img = cv2.imread(f)
    img = cv2.resize(img, None, fx=64/img.shape[1], fy=64/img.shape[0])
    X.append(img/256)

X = np.array(X)
Y = np.array(Y)

Y = model.predict(X)

c1 = 0;
c2 = 0;

for i in range(len(Y)):
    for j in range(len(Y[i])):
        if Y[i][j] == np.max(Y[i]):
            c1 = c1 + 1
            tmp1 = files[i].split('\\')[1].split(' ')[0]
            if(tmp1 == categories[j]):
                c2 = c2 + 1
            break

print(c1)
print(c2)

 

 

 

출력된 결과는

97 62

97개 테스트 중에 62개가 정답입니다. 약 63퍼센트의 정확도네요

절반도 안될줄 알았는데 생각보다 높게 나왔습니다.

물론 실제로 사용하기에는 정확도가 너무 낮지만

랜덤으로 찍어서 맞출 확률보다 약 2배나 높은 확률입니다.

 

다만 테스트 자체의 신뢰성이 조금 의심됩니다...

이미지셋 자체가 너무 적은게 문제인것 같습니다.

정리되지 않은 이미지들로 이정도라면 정리된 데이터로 테스트 해보면 훨씬 높은 정확도가 나올것 같습니다.

예를들면 캐릭터 얼굴만 잘라내서 트레이닝 시키고 테스트하면 90퍼센트 이상의 정확도를 구할 수 있지 않을까요?

그건 나중에 따로 해보도록 하겠습니다.

 

 

 

 

참고

https://hoony-gunputer.tistory.com/entry/keras%EC%83%89-%EC%9E%88%EB%8A%94-%EC%9D%B4%EB%AF%B8%EC%A7%80-%EB%B6%84%EB%A5%98%ED%95%98%EA%B8%B02

 

 

2020. 3. 29. 23:52

 

얼마 전에 인터넷에서 한천가루를 구매하여 팥 양갱을 만들어 보았습니다.

이 이전에 만들었던 팥양갱은 물을 너무 많이 넣어서 그런건지 팥을 너무 적게 넣어서 그런건지 양갱이 아니라 젤리처럼 되어버려서 별로 마음에 안들었는데

이건 식감도 슈퍼에서 파는 양갱이랑 똑같고 맛있네요

 

한천가루가 많이 남아서 종종 만들어 먹어야겠습니다.

'생활 > 요리' 카테고리의 다른 글

아몬드가루로 바나나 파운드케이크 만들기  (0) 2022.05.06
뒷다리살 수비드로 해먹기  (0) 2022.04.11
햄버거빵 굽기  (0) 2020.12.24
앙금쿠키 만들기  (0) 2020.12.24

저번에 산 백설앙금으로 앙금 쿠키를 만들어봤습니다.

레시피는 따로 정해놓고 한건 없고

앙금이 1000g, 아몬드가루 적당량, 앙금이 뻑뻑해지지 않을 정도의 우유

이렇게만 넣고 오븐에 구워보았습니다.

다른분들 레시피를 보면 계란 노른자도 넣으시던데 집에 계란이 없어서 노른자는 안넣었습니다.

 

구매한지 10년 가까이 된 전기오븐입니다. 이제 문도 잘 안닫기네요
반죽을 짤주머니에 넣고 짜서 오븐에 구웠습니다.

 

 

 

백설앙금이 아주 달아서 설탕을 따로 넣을 필요도 없고

맛있게 잘 구워졌습니다.

시중에서 파는거랑 차이가 없네요

'생활 > 요리' 카테고리의 다른 글

아몬드가루로 바나나 파운드케이크 만들기  (0) 2022.05.06
뒷다리살 수비드로 해먹기  (0) 2022.04.11
햄버거빵 굽기  (0) 2020.12.24
전에 만든 팥양갱  (0) 2020.12.24

+ Recent posts