Bu proje, en son AI modellerini kullanarak metin ve görsellerden video, 3D model ve gelişmiş görseller oluşturabilen kapsamlı bir yapay zeka uygulamasıdır.
- Model: FLUX.1-dev (black-forest-labs/FLUX.1-dev)
- Özellik: Metinden yüksek kaliteli görseller oluşturma
- Çözünürlük: 1024x1024'e kadar
- Model: Stable Diffusion XL Refiner (stabilityai/stable-diffusion-xl-refiner-1.0)
- Özellik: Mevcut görselleri geliştirme ve iyileştirme
- Format: PNG, JPG, JPEG destekli
- Model: LTX-Video (Lightricks/LTX-Video)
- Özellik: Metinden gerçek zamanlı video oluşturma
- Çözünürlük: 1216×704, 30 FPS
- Model: Stable Video Diffusion (stabilityai/stable-video-diffusion-img2vid-xt)
- Özellik: Statik görsellerden video oluşturma
- Çözünürlük: 576x1024, 25 frame
- Model: Hunyuan3D-2 (tencent/Hunyuan3D-2)
- Özellik: Görsellerden yüksek çözünürlüklü 3D model oluşturma
- Format: GLB, OBJ çıktı formatları
- Model: Stable Zero123 (stabilityai/stable-zero123)
- Özellik: Metinden 3D model oluşturma
- Teknik: Score Distillation Sampling (SDS)
- Python 3.8+
- CUDA destekli GPU (önerilen)
- 16GB+ RAM
- 50GB+ disk alanı
git clone <repository-url>
cd Multilangual
python -m venv venv
venv\Scripts\activate # Windows
# source venv/bin/activate # Linux/Mac
pip install -r requirements.txt
set HUGGINGFACE_TOKEN=YOUR_ACCES_TOKEN
.env
dosyasında token zaten ayarlanmış durumda.
.streamlit/secrets.toml
dosyasında token zaten ayarlanmış durumda.
streamlit run main.py
Uygulama varsayılan olarak http://localhost:8501
adresinde çalışacaktır.
- Tarayıcınızda
http://localhost:8501
adresine gidin - Sol menüden kullanmak istediğiniz AI aracını seçin
- Gerekli parametreleri girin
- "Oluştur" butonuna tıklayın
- Sonuçları görüntüleyin ve indirin
Multilangual/
├── main.py # Ana Streamlit uygulaması
├── requirements.txt # Python bağımlılıkları
├── .env # Environment variables
├── README.md # Bu dosya
├── .streamlit/
│ ├── config.toml # Streamlit konfigürasyonu
│ └── secrets.toml # Streamlit secrets
├── models/
│ ├── __init__.py
│ ├── text2image.py # FLUX.1-dev model handler
│ ├── image2image.py # SDXL Refiner model handler
│ ├── text2video.py # LTX-Video model handler
│ ├── image2video.py # Stable Video Diffusion handler
│ ├── image23d.py # Hunyuan3D-2 model handler
│ └── text23d.py # Stable Zero123 model handler
└── utils/
├── __init__.py
└── helpers.py # Yardımcı fonksiyonlar
Eğer birden fazla GPU'nuz varsa, kullanılacak GPU'yu belirtebilirsiniz:
set CUDA_VISIBLE_DEVICES=0
Modeller varsayılan olarak ./models_cache
dizininde saklanır. Bu dizini değiştirmek için:
set HF_HOME=C:\path\to\your\cache
set TRANSFORMERS_CACHE=C:\path\to\your\cache
Port ve adres ayarları .streamlit/config.toml
dosyasında yapılandırılabilir.
Eğer GPU bellek hatası alıyorsanız:
- Daha küçük batch size kullanın
- Model CPU offloading'i etkinleştirin (zaten aktif)
- Daha düşük çözünürlük kullanın
- İnternet bağlantınızı kontrol edin
- HuggingFace token'ının doğru olduğundan emin olun
- Disk alanınızın yeterli olduğundan emin olun
- GPU kullandığınızdan emin olun
- CUDA sürümünüzü kontrol edin
- Daha az inference step kullanın
- CPU: Intel i5 / AMD Ryzen 5
- RAM: 16GB
- GPU: GTX 1060 6GB / RTX 2060
- Disk: 50GB boş alan
- CPU: Intel i7 / AMD Ryzen 7
- RAM: 32GB+
- GPU: RTX 3080 / RTX 4070+
- Disk: 100GB+ SSD
- Fork edin
- Feature branch oluşturun (
git checkout -b feature/amazing-feature
) - Commit edin (
git commit -m 'Add amazing feature'
) - Push edin (
git push origin feature/amazing-feature
) - Pull Request oluşturun
Bu proje MIT lisansı altında lisanslanmıştır. Detaylar için LICENSE
dosyasına bakın.
- Black Forest Labs - FLUX.1-dev
- Stability AI - SDXL Refiner, Stable Video Diffusion, Stable Zero123
- Lightricks - LTX-Video
- Tencent - Hunyuan3D-2
- Streamlit - Web framework
- HuggingFace - Model hosting ve diffusers library
Sorularınız için issue açabilir veya pull request gönderebilirsiniz.
Not: Bu uygulama eğitim ve araştırma amaçlıdır. Ticari kullanım için model lisanslarını kontrol edin.