Искусственный интеллект и настоящий шрифтовой дизайн

Как дизайнеры перестали бояться и полюбили нейросети

7 июня 2023 г.


Дискуссии о том, заменят ли дизайнеров нейросети, уже почти десять лет. И, кажется, за это время нейросети превратились из гипотетических конкурентов в помощников и соавторов. По хештегу #36daysoftype можно найти огромное количество букв, сгенерированных в Midjourney или durer.ai, а кто-то уже продаёт шрифты, сделанные при помощи нейросетей Слово «нейросеть» используется в двух значениях. Это и математическая модель, и программа, в основе которой такая математическая модель лежит..

Но дизайнеры всё ещё сами делают кернинг и проводят недели за расчётами величины апрошей и пробелов.

Что это за нейросети, которыми пользуются дизайнеры? Как они работают?

Большая часть нейросетей, генерирующих изображения, пользуются алгоритмом GAN (Generative Adversarial Network). Обучаясь на реальных образцах, GAN создаёт изображения максимально похожие на реальные. Например, такой алгоритм может сгенерировать фотографию несуществующего человека.

В составе алгоритма две нейросети — генератор и дискриминатор, генератор создаёт изображения, а дискриминатор — оценивает, насколько они реальны, и решает, можно ли показывать их пользователю. Прежде чем отправлять запросы этим нейросетям, их нужно обучить — например, показать им несколько настоящих фотографий.

Чем больше фотографий вы загружаете, тем лучше работает генератор и тем избирательнее становится дискриминатор.

Куда идти, чтобы сделать шрифт? В бот Midjourney?

Теоретически — да, Midjourney тоже использует алгоритм GAN. На практике — скорее нет, в текущей версии бота нельзя настроить свою модель. То есть изображения, которые генерирует Midjourney, основаны не на ограниченном вами наборе изображений, а на сумме знаний бота, которые он получил за время существования.

Воспользовавшись командой blend в Midjourney, можно получить среднее арифметическое между двумя шрифтами, но этот бот, изначально придуманный для иллюстраций, всё же больше подойдёт для леттеринга.


1


Теоретически, попросить нарисовать буквы можно бета-версию Photoshop. Встроенный в неё искусственный интеллект стремится сделать типографику максимально приближенной к загруженному изображению по тону и стилю. Удаётся это далеко не всегда, но писать строчные буквы Photoshop уже научился.


Photoshop. Промт: An alternative letter R for the Apoc typeface


Ещё существует модель DeepFloyd IF. Авторы обучали её в том числе и на текстовых блоках, поэтому буквы получаются узнаваемыми, но готовый шрифт при помощи DeepFloyd IF сделать пока не получится.


3 DeepFloyd IF. Промт: Serif typeface with numbers and punctuation


В основном же дизайнеры пользуются генератором StyleGan. Для каждого проекта его приходится обучать самостоятельно. Но у StyleGan гораздо более гибкие настройки — в зависимости от материала, на котором тренируется модель, можно получить как акцидентный шрифт, так и тот, который будет отлично работать в наборе.

То есть наборным шрифтом, сгенерированным нейросетью, уже можно пользоваться?

Да, на сайте арт-директора DIA Studio Дэниэла Венцеля доступна целая коллекция Untitled AI GAN. Вместе с коллегой Жаном Бёмом Дэниэл отобрал шрифты, на которых будет обучаться модель, почти 2 тысячи раз изменял вводные данные и получил коллекцию из 10 шрифтов — шести антикв и четырёх гротесков.


4 Untitled Ai GAN seed0380

7 Untitled Ai GAN seed1259


Сколько нужно времени, чтобы научить нейросеть генерировать шрифты?

Дизайнеры берлинской студии NaN говорят, что хоть сколько-нибудь читаемый глиф можно получить за три часа, но оптимальное время обучения — 10 часов. Чтобы получить свой MachinelearningFont, состоящий из 110 глифов, дизайнерам понадобилось 550 часов и 2674 шрифта из коллекции Google Fonts.


8 Процесс обучения модели для MachinelearningFont


А что-то более прикладное?

Да. Например, дизайнер Кейтаро Сакмото и разработчик Тецуо Сакомура в 2016 году придумали искусственный интеллект по имени Джон Морисава — три нейросети, из которых он состоит, помогают студии Кейтаро оцифровывать нарисованные вручную иероглифы кандзи (раньше это делали как минимум три дизайнера). Первая нейросеть Джона — распознаёт линии, вторая — то, как линии складываются в графемы, а третья — взаимодействие графем в иероглифе.


9 Процесс оцифровки иероглифов


А китайская студия NEXT Lab уже пять лет работает над искусственным интеллектом Зиззи. Сначала Зиззи делала только начертания разной жирности, но к 2022 году научилась работать и с шириной. Из-за того что иероглифы ханьцзы состоят из двух частей (одна передаёт смысл, а другая — звук), Зиззи приходится совмещать в себе две обученные модели, которые совмещаются, прежде чем оказаться в дискриминаторе. Теоретически то же самое можно было бы сделать при помощи кода, но это заняло бы гораздо больше времени, потому что пришлось бы отдельно прописывать положение каждой из точек растрового изображения.

Pастрового? Получается, нейросети не работают с вектором?

Пока нет. Для шрифта MachinelearningFont из коллекции Untitled AI GAN дизайнеры генерировали по одному png-изображению для каждого глифа.

Но нейросети учатся. Например, Word-As-Image от авторов StableDiffusion распознаёт опорные точки контуров букв и работает с ними. В демоверсии можно выбрать шрифт-основу, ввести букву (только букву, а не любой глиф) и написать, в какой предмет вы хотите её превратить. Ни загрузить новый шрифт, ни натренировать свою модель Word-As-Image не предлагает. Пока нейросеть плохо обучена, и ей редко удаётся нарисовать узнаваемый предмет или сохранить читаемость буквы.


10 Логотипы из презентации нейросети


Дизайн-твиттер-сообщество считает, что у технологии, лежащей в основе Word-As-Image, большое будущее, но в других пользовательских сценариях, — дорабатывать буквы за нейросетью существенно дольше, чем рисовать их с нуля, к тому же скачать вектор в Word-As-Image нельзя.

А есть ли полезная шрифтовым дизайнерам нейросеть, которая не работает с изображением напрямую?

На форуме приложения Glyphs есть отдельная страница, посвящённая тому, как пользователи пишут скрипты с помощью ChatGPT. Например, Альваро Франка из студии Vasava показал скрипт, который помогает работать с диакритикой (при наведении на букву показывает все варианты диакритики для неё и другие буквы с той же диакритикой). А Гор Джиханян — скрипт, который помогает сделать несколько вариантов курсива с разными углами наклона.


11 Пример работы скрипта Альваро Франка


Если ChatGPT умеет писать код, может ли он помочь написать нейросеть?

Да, может, есть даже несколько инструкций с подборками промтов, которые нужно вводить. Но каждый участок кода пользователю придётся генерировать отдельно, а значит, каждый, кто решит написать нейросеть при помощи ChatGPT, должен понимать её устройство, знать Python и владеть одним из редакторов кода.

У большинства нейросетей и даже моделей открытый код, поэтому если вы умеете программировать, сделать новую нейросеть, которая отличается от существующих, будет проще воспользовавшись участками уже существующего кода из нужного вам гитхаб-репозитория.

Если искусственный интеллект уже умеет генерировать шрифты, отдельные начертания и скрипты для шрифтовых редакторов, почему он тогда не может заменить дизайнеров?

Дизайнер всё ещё руководит процессом — и креативно, и технически. Сначала он решает, какой именно искусственный интеллект ему нужен, потом выбирает, на каком материале его обучать. И в конце концов связывает нейросеть со шрифтовым редактором.

Кроме того, все шрифты и глифы, сделанные нейросетями, нуждаются в проверке (а чаще — доработке) дизайнером, так же как и код скрипта, написанный в ChatGPT. И конечно, отличить интересный шрифт от неинтересного и хороший дизайн от плохого сможет только человек.