Историја ревизија

Аутор SHA1 Порука Датум
  AUTOMATIC1111 0769aa318a integrated edits as recommended in the PR #15804 пре 1 година
  huchenlei 0e98529365 Replace einops.rearrange with torch native пре 1 година
  brkirch 87dd685224 Make sub-quadratic the default for MPS пре 2 година
  brkirch abfa4ad8bc Use fixed size for sub-quadratic chunking on MPS пре 2 година
  AUTOMATIC1111 10ff071e33 update doggettx cross attention optimization to not use an unreasonable amount of memory in some edge cases -- suggestion by MorkTheOrk пре 2 година
  AUTOMATIC1111 ac4ccfa136 get attention optimizations to work пре 2 година
  AUTOMATIC1111 da464a3fb3 SDXL support пре 2 година
  AUTOMATIC1111 806ea639e6 Merge pull request #11066 from aljungberg/patch-1 пре 2 година
  Alexander Ljungberg d9cc0910c8 Fix upcast attention dtype error. пре 2 година
  AUTOMATIC1111 56bf522913 Merge pull request #10990 from vkage/sd_hijack_optimizations_bugfix пре 2 година
  AUTOMATIC 2e23c9c568 fix the broken line for #10990 пре 2 година
  Vivek K. Vasishtha b1a72bc7e2 torch.cuda.is_available() check for SdOptimizationXformers пре 2 година
  AUTOMATIC 3ee1238630 revert default cross attention optimization to Doggettx пре 2 година
  AUTOMATIC 36888092af revert default cross attention optimization to Doggettx пре 2 година
  AUTOMATIC 05933840f0 rename print_error to report, use it with together with package name пре 2 година
  Aarni Koskela 00dfe27f59 Add & use modules.errors.print_error where currently printing exception info by hand пре 2 година
  Aarni Koskela df004be2fc Add a couple `from __future__ import annotations`es for Py3.9 compat пре 2 година
  AUTOMATIC1111 1e5afd4fa9 Apply suggestions from code review пре 2 година
  AUTOMATIC 8a3d232839 fix linter issues пре 2 година
  AUTOMATIC 2582a0fd3b make it possible for scripts to add cross attention optimizations пре 2 година
  Aarni Koskela 49a55b410b Autofix Ruff W (not W605) (mostly whitespace) пре 2 година
  AUTOMATIC 028d3f6425 ruff auto fixes пре 2 година
  AUTOMATIC 762265eab5 autofixes from ruff пре 2 година
  brkirch 7aab389d6f Fix for Unet NaNs пре 2 година
  FNSpd 280ed8f00f Update sd_hijack_optimizations.py пре 2 година
  FNSpd c84c9df737 Update sd_hijack_optimizations.py пре 2 година
  Pam 8d7fa2f67c sdp_attnblock_forward hijack пре 2 година
  Pam 37acba2633 argument to disable memory efficient for sdp пре 2 година
  Pam fec0a89511 scaled dot product attention пре 2 година
  brkirch e3b53fd295 Add UI setting for upcasting attention to float32 пре 2 година