Commit History

Auteur SHA1 Bericht Datum
  AUTOMATIC1111 806ea639e6 Merge pull request #11066 from aljungberg/patch-1 2 jaren geleden
  Alexander Ljungberg d9cc0910c8 Fix upcast attention dtype error. 2 jaren geleden
  AUTOMATIC1111 56bf522913 Merge pull request #10990 from vkage/sd_hijack_optimizations_bugfix 2 jaren geleden
  AUTOMATIC 2e23c9c568 fix the broken line for #10990 2 jaren geleden
  Vivek K. Vasishtha b1a72bc7e2 torch.cuda.is_available() check for SdOptimizationXformers 2 jaren geleden
  AUTOMATIC 3ee1238630 revert default cross attention optimization to Doggettx 2 jaren geleden
  AUTOMATIC 36888092af revert default cross attention optimization to Doggettx 2 jaren geleden
  AUTOMATIC 05933840f0 rename print_error to report, use it with together with package name 2 jaren geleden
  Aarni Koskela 00dfe27f59 Add & use modules.errors.print_error where currently printing exception info by hand 2 jaren geleden
  Aarni Koskela df004be2fc Add a couple `from __future__ import annotations`es for Py3.9 compat 2 jaren geleden
  AUTOMATIC1111 1e5afd4fa9 Apply suggestions from code review 2 jaren geleden
  AUTOMATIC 8a3d232839 fix linter issues 2 jaren geleden
  AUTOMATIC 2582a0fd3b make it possible for scripts to add cross attention optimizations 2 jaren geleden
  Aarni Koskela 49a55b410b Autofix Ruff W (not W605) (mostly whitespace) 2 jaren geleden
  AUTOMATIC 028d3f6425 ruff auto fixes 2 jaren geleden
  AUTOMATIC 762265eab5 autofixes from ruff 2 jaren geleden
  brkirch 7aab389d6f Fix for Unet NaNs 2 jaren geleden
  FNSpd 280ed8f00f Update sd_hijack_optimizations.py 2 jaren geleden
  FNSpd c84c9df737 Update sd_hijack_optimizations.py 2 jaren geleden
  Pam 8d7fa2f67c sdp_attnblock_forward hijack 2 jaren geleden
  Pam 37acba2633 argument to disable memory efficient for sdp 2 jaren geleden
  Pam fec0a89511 scaled dot product attention 2 jaren geleden
  brkirch e3b53fd295 Add UI setting for upcasting attention to float32 2 jaren geleden
  AUTOMATIC 59146621e2 better support for xformers flash attention on older versions of torch 2 jaren geleden
  Takuma Mori 3262e825cc add --xformers-flash-attention option & impl 2 jaren geleden
  AUTOMATIC 40ff6db532 extra networks UI 2 jaren geleden
  brkirch c18add68ef Added license 2 jaren geleden
  brkirch b95a4c0ce5 Change sub-quad chunk threshold to use percentage 2 jaren geleden
  brkirch d782a95967 Add Birch-san's sub-quadratic attention implementation 2 jaren geleden
  brkirch 35b1775b32 Use other MPS optimization for large q.shape[0] * q.shape[1] 2 jaren geleden