Я, конечно, пожалею 100 раз о создании темы из-за уведомлений, но што поделать.
В общем, предлагаю в этой теме скидывать что-нить на тему нейросетей, все, что Вас впечатлило, удивило и т.д. Только прошу спамить бесконечным количеством картинок, хотелось бы именно прикладное использование этих технологий видеть.
Спасибо.
Вот я начну.
Интересный эксперимент, в котором не принимало участие ни одного дизайнера мебели или других людей, только автор со своей идеей и своей же реализацией.
Предвижу опять комментарии, что кресло отстой, все фигня, я дизайнер я могу лучше, но так как каждый раз писать, что я не об этом посты делаю, не о конкретных реализациях, а о совершенно новых и интересных рабочих процессах, то помолчу )
А вот на тему применения способностей программировать под Arduino
ИИ слишком быстро входит в обыденную жизнь простого работяги, с бархатными тягами((( по ходу через год все будет намного печальнее, стопудово, кто бы что ни говорил, ИИ многие профессии перетянет на себя, что ж - будем подождать, чья победит
Раньше мамонта убивали камнем, но тот начал убивать копьем оставил без работы метателя камней, но создал нишу тех кто начали производить копья, потом лук, и т.д. Думаю посыл ясен.
очень понравился ролик с крекслом, особенно что первое моё образование столярное и я успел поработать руками! Ида речь под занавес верная, ее ещё сформулировал Жак Фреско. Человека формирует среда, тоесть полностью от внешнего вида, воспитания, интеллекта и прочее. Все наши творения, как результат повара - мы комбинируем, пробуем, готовим и получается что то новое.
Ну чё, гля как собачку в интерьер писывают, за пару кликов. Можно ведь и человеков и вообще теперь эти вручную вписанные чудики уже не нужны, раз, два и получил.
На видео можно увидеть то как легко можно вписывать совершенно новые объекты в сцену, заменять фон, создавать изображения из каракулей и стилизовать текст под окружение.
Чем отличается / что нового по сравнению с другими интерфейсами для Stable Diffsusion:
- прежде всего, это сделано с учетом реального приложения для редактирования изображений, поэтому оно больше похоже на сам Photoshop. Следовательно, это профессиональный инструмент, и ему нужно немного освоиться с новым рабочим процессом.
- Удаление фона AI
- Замена фона AI
- функция векторизации
- классный новый текстовый инструмент для генерации текста AI
- healing brush
- очень важно: управление слоями
- 3D слои с библиотекой ресурсов и простыми примитивами
- Слой Pose с 3D pose и pose library
- Слои Scribble и сегментации с предварительным просмотром в реальном времени
- отличная комбинация ControlNet 1.1 и T2I Coadapter для обоих миров
- специальная также поддерживается функция outpainting, infinitiy canvas
- все можно комбинировать с inpainting, что очень полезно
- поддержка пользовательских кистей, layer brush от поколений искусственного интеллекта
Так же доступен нейросетевой апскейл и другие базовые вещи для Stable Diffusion.
Требования: Видеокарта Nvidia с не менее 4gb видеопамяти.
Download the bundle installer. <- Нажать на это. Можно сделать прямо отсюда
Распаковать архив и запустить install_or_update. Ждать, первый запуск будет дольше последующих так как будут скачиваться необходимые зависимости. А после его работы в папке появится еще один файл run.cmd. Запустите его. Первый запуск снова будет дольше последующих. Когда процесс будет завершен, в браузере перейдите по адресу:http://localhost:5000/.
Пользуемся. Для последующих запусков просто запускаем run и переходим по адресу.
Дополнительные примеры работы где можно увидеть работу по удалению объектов и
Maya GPT может помочь с написанием скриптов на Python. С одной стороны это хорошо, для опытных юзеров экономия времени. А с другой плохо, ибо начинающие вообще ничего (от слова совсем) уметь (а главное понимать) не будут. Это как калькулятор для первоклашек - крайне вреден. Пусть сначала таблицу умножения выучат, а потом уже пользуются "помогашками", иначе дебилами вырастут. Мозг должен работать, чтоб не усохнуть. Или, по крайней мере, ради того, чтоб Альцгеймера раньше времени не заиметь.
Потребуется немного ретуши вручную, но все равно намного быстрее, чем самому вписывать.
Мало нам миллиарды миллиардов настоящих фоток еды-воды-чаёв в инстаграмах и тик-токах, где представлена вся гастрономия мира в итерации сиксилион, ща ещё и нейросети будут генерить всё это
Никто не пробовал юзать нейросеть на предмет отрисовки текстурок в хайрез?
Я пробовал. Долго мучался, но то ли я не могу никак объяснить что конкретно мне нужно, то ли она меня понять не может, но в итоге выдаёт всё что угодно, но только не то, что нужно мне.
Никто не пробовал юзать нейросеть на предмет отрисовки текстурок в хайрез?
Генерил новые простенькие текстуры, делал вариации существующих, апскейлил текстуры с маленьким разрешением. Не уровень Quixel Megascans, и понятное дело только цветовая карта, но под некоторые цели приемлемо
Цитата Makasharip:
Долго мучался, но то ли я не могу никак объяснить что конкретно мне нужно, то ли она меня понять не может
Что-то конкретное не получалось? У с stable diffusion довольно обширный инструментарий, чтобы близко к своим хотелкам генерацию приводить