동일한 fbx와 abc파일을 가지고 ML deformer 에셋에서 트레이닝실행하면 언리얼 5.0버전을 제외한 나머지 상위버전에서는 ML Deformer couldn’t load network 오류가 있습니다.
관련링크
동일한 fbx와 abc파일을 가지고 ML deformer 에셋에서 트레이닝실행하면 언리얼 5.0버전을 제외한 나머지 상위버전에서는 ML Deformer couldn’t load network 오류가 있습니다.
관련링크
안녕하세요.
질문의 내용에 해당하는 이슈가 언리얼 엔진 5.6에서 재현되지 않는 것으로 확인됩니다.
머신 러닝 디포머 애셋에서 사용하는 모델을 Neural Morph 또는 Detail Pose로 사용하는 것을 권장드리며, 언리얼 엔진 5.1 및 5.2 버전의 경우 관련 파이썬 패키지 설치 등 별도 과정이 필요할 수 있습니다.
해당 이슈가 발생했을 때의 로그를 첨부해주시면 문제 해결에 도움이 될 것으로 생각하며, 머신 러닝 디포머 관련 에픽 문서 및 샘플 프로젝트를 확인하여 이슈가 발생한 프로젝트와 비교해보시는 것을 권유드립니다.
감사합니다.
언리얼 5.6과 마야2023버전으로 테스트한결과 입니다.
fbx와 abc 파일 첨부합니다.
[Image Removed]
안녕하세요.
로그 상 파이썬 실행 과정에서 torch 패키지를 불러 올 수 없어 발생하는 이슈로 보입니다.
먼저 언리얼 엔진 에디터의 Project Settings - Plugins - Python - Run Pip Install on Startup 이 활성화되어 있는지, Python Foundation Packages 플러그인이 활성화되어 있는지 확인하신 후 트레이닝을 실행하여 정상적으로 동작하는지 확인해보신 후 여전히 문제가 남아 있으면 아래 방법을 시도해 볼 수 있습니다.
명령 프롬프트에서 아래와 같은 명령어를 통해 수동으로 파이썬 패키지를 설치합니다.
"[언리얼 엔진 경로]\Engine\Binaries\ThirdParty\Python3\Win64\Python.exe" -m pip install torch==2.5.1+cu124 --index-url https://download.pytorch.org/whl
설치가 완료되면 에디터를 재시작하고 에디터 콘솔을 파이썬으로 변경한 후 아래와 같이 입력하여 패키지가 설치되었는지 확인할 수 있습니다. 이후 트레이닝을 실행하여 정상적으로 동작하는지 확인합니다.
import torch
print(torch.__version__)
감사합니다.
안녕하세요.
첨부하신 파일이 제대로 업로드되지 않은 것으로 보입니다.
에러 관련 로그 및 정보를 추가해주시면 문제 해결에 도움이 될 것으로 생각합니다.
감사합니다.
안녕하세요
“C:\Program Files\Epic Games\UE_5.6\Engine\Binaries\ThirdParty\Python3\Win64\python.exe” -m pip install torch
“C:\Program Files\Epic Games\UE_5.6\Engine\Binaries\ThirdParty\Python3\Win64\python.exe” -m pip install torch numpy
요두개 설치해서 해결했습니다.
다른한가지 문의드릴께 있는데요
250000개 버텍스에 25000개 포즈를 알렘빅으로 익스포트하면 7.7기가라는 엄청난 용량과 4시간반이라는 익스포트시간이 소요되는되요 혹시 이게 5.7버전에서는 개선이 되어지는건지 아니면
이렇게 작업을 하는게 정상적인 방법인지 궁금해서 여쭤봅니다.
안녕하세요.
ML Deformer - Data Generation Maya Plugin에 대한 질문으로 보입니다. 해당 ML Deformer 학습 데이터 생성기는 마야 내 플러그인으로 파이썬으로 실행되며 기본적으로 지정된 각도 내에서 순수한 무작위 회전을 생성합니다.
아래의 ML Deformer 공식 문서에 따르면 버텍스 수 및 포즈 수에 따라 최대 몇 시간, 100GB까지 시간과 용량이 소요될 수 있다고 명시되어 있으며, 따라서 해당 작업의 버텍스 수 및 포즈 수에 시간과 용량 소요가 예상된 범위 내인 것으로 보입니다.
아래 영상에 따르면 언리얼 엔진은 무작위 생성보다 더 적합한 작고 효율적인 훈련 데이터 셋을 만드는 것이 목표에 있지만 언제 추가될 지는 알 수 없습니다.
https://www.youtube.com/live/teTroOAGZjM?t=19000s
감사합니다.