Историја ревизија

Аутор SHA1 Порука Датум
  AUTOMATIC1111 806ea639e6 Merge pull request #11066 from aljungberg/patch-1 пре 2 година
  Alexander Ljungberg d9cc0910c8 Fix upcast attention dtype error. пре 2 година
  AUTOMATIC1111 56bf522913 Merge pull request #10990 from vkage/sd_hijack_optimizations_bugfix пре 2 година
  AUTOMATIC 2e23c9c568 fix the broken line for #10990 пре 2 година
  Vivek K. Vasishtha b1a72bc7e2 torch.cuda.is_available() check for SdOptimizationXformers пре 2 година
  AUTOMATIC 3ee1238630 revert default cross attention optimization to Doggettx пре 2 година
  AUTOMATIC 36888092af revert default cross attention optimization to Doggettx пре 2 година
  AUTOMATIC 05933840f0 rename print_error to report, use it with together with package name пре 2 година
  Aarni Koskela 00dfe27f59 Add & use modules.errors.print_error where currently printing exception info by hand пре 2 година
  Aarni Koskela df004be2fc Add a couple `from __future__ import annotations`es for Py3.9 compat пре 2 година
  AUTOMATIC1111 1e5afd4fa9 Apply suggestions from code review пре 2 година
  AUTOMATIC 8a3d232839 fix linter issues пре 2 година
  AUTOMATIC 2582a0fd3b make it possible for scripts to add cross attention optimizations пре 2 година
  Aarni Koskela 49a55b410b Autofix Ruff W (not W605) (mostly whitespace) пре 2 година
  AUTOMATIC 028d3f6425 ruff auto fixes пре 2 година
  AUTOMATIC 762265eab5 autofixes from ruff пре 2 година
  brkirch 7aab389d6f Fix for Unet NaNs пре 2 година
  FNSpd 280ed8f00f Update sd_hijack_optimizations.py пре 2 година
  FNSpd c84c9df737 Update sd_hijack_optimizations.py пре 2 година
  Pam 8d7fa2f67c sdp_attnblock_forward hijack пре 2 година
  Pam 37acba2633 argument to disable memory efficient for sdp пре 2 година
  Pam fec0a89511 scaled dot product attention пре 2 година
  brkirch e3b53fd295 Add UI setting for upcasting attention to float32 пре 2 година
  AUTOMATIC 59146621e2 better support for xformers flash attention on older versions of torch пре 2 година
  Takuma Mori 3262e825cc add --xformers-flash-attention option & impl пре 2 година
  AUTOMATIC 40ff6db532 extra networks UI пре 2 година
  brkirch c18add68ef Added license пре 2 година
  brkirch b95a4c0ce5 Change sub-quad chunk threshold to use percentage пре 2 година
  brkirch d782a95967 Add Birch-san's sub-quadratic attention implementation пре 2 година
  brkirch 35b1775b32 Use other MPS optimization for large q.shape[0] * q.shape[1] пре 2 година