Что влияет на изменение ландшафта Земли? Как рельеф Земли изменяется во времени? Основные формы земного рельефа.

Планеты, относящиеся к земной группе, -- Меркурий, Венера, Земля, Марс -- имеют небольшие размеры и массы, средняя плотность этих планет в несколько раз превосходит плотность воды; они медленно вращаются вокруг своих осей; у них мало спутников (у Меркурия и Венеры их вообще нет, у Марса -- два крохотных, у Земли -- один).

Черты сходства и различия обнаруживаются также при изучении атмосфер планет земной группы Хорошавина С.Г. Концепции современного естествознания. Курс лекций -- Ростов-на-Дону, 2006.

Меркурий

Меркурий -- четвертая по блеску планета: в максимуме блеска она почти так же ярка, как Сириус, ярче нее бывают только Венера, Марс и Юпитер. Тем не менее, Меркурий - очень трудный объект для наблюдений из-за малости его орбиты и, следовательно, близости к Солнцу. Для невооруженного глаза Меркурий - светлая точка, а в сильный телескоп у него вид серпика или неполного круга. Изменения вида (фаз) планеты с течением времени показывают, что Меркурий - это шар, с одной стороны освещенный Солнцем, а с другой - совершенно темный. Диаметр этого шара - 4870 км.

Меркурий медленно вращается вокруг своей оси, будучи всегда обращенным, к Солнцу одной стороной. Таки образом период обращения вокруг Солнца (меркурианский год) составляет около 88 земных суток, а период вращения вокруг своей оси -- 58 суток. Получается, что от восхода Солнца до его захода на Меркурии проходит год, то есть 88 земных суток. И правда, поверхность Меркурия во многом сходна с поверхностью Луны, хотя мы и не знаем, действительно ли на поверхности Меркурия имеются моря и кратеры. Меркурий обладает относительно большой плотностью среди планет Солнечной системы -- около 5,44 г/см3. Ученые предполагают, что это обусловлено наличием массивного металлического ядра (предположительно из расплавленного железа плотностью до 10 г/см3, имеющего температуру около 2000 К), содержащего более 60% массы планеты и окруженного силикатной мантией и, вероятно, корой 60 -- 100 км толщиной.

Венера

Венера наблюдается и как «вечерняя звезда» и как «утренняя звезда» - Hesperus и Phosphorus, так называли ее в античном мире. После солнца и Луны Венера - самое яркое небесное светило, а ночью освещенные ею предметы могут отбрасывать тени. Так же Венера -- ближайшая к Земле планета. Ее даже называют "сестрой Земли". И вправду -- радиус Венеры почти равен земному (0,95), ее масса -- 0,82 массы Земли. Венера довольно хорошо изучена людьми -- к планете приближались как советские АМС серии "Венера", таки американские Маринеры. Венера обращается вокруг Солнца за 224,7 земных суток, но с этой цифрой, в отличие от Меркурия, ничего интересного не связано. Весьма интересный факт связан с периодом вращения самой планеты вокруг своей оси -- 243 земных суток (в обратном направлении) и периодом вращения мощной венерианской атмосферы, которая совершает полный оборот вокруг планеты за... 4 дня! Это соответствует скорости ветра у поверхности Венеры в 100 м/с или 360 км/ч! Она имеет атмосферу, впервые открытую М. В. Ломоносовым в 1761 г. во время прохождения планеты по диску солнца. Планета окутана густым слоем белых облаков, скрывающих ее поверхность. Наличие в атмосфере Венеры густых облаков, вероятно, состоящих из ледяных кристаллов, объясняет высокую отражательную способность планеты - 60% падающего солнечного света отражается от нее. Современные ученые установили, что венерианская атмосфера на 96% состоит из углекислого газа СО2. Присутствуют здесь также азот (почти 4%), кислород, водяные пары, благородные газы и др. (всех меньше 0,1%). Основой густого облачного слоя, расположенного на высоте 50 -- 70 км, являются мелкие капли серной кислоты с концентрацией 75-80% (остальное -- вода, активно "впитываемая" капельками кислоты). На Венере существуют действующие вулканы, так, как достоверно известно, что сейсмическая и тектоническая деятельность на Венере была очень активна сравнительно недавно. Внутреннее строение этого псевдоблизнеца Земли также сходно со строением нашей планеты.

Земля

Наша земля кажется нам такой большой и прочной и столь важной для нас, что мы склонны забывать о том скромном положении, которое оно занимает в семье планет солнечной системы. Правда у Земли все же есть довольно толстая атмосфера, прикрывающая тонкий неоднородный слой воды, и даже титулованный спутник диаметром примерно в ј ее диаметра. Однако эти особые приметы Земли едва ли могут служить достаточным основанием нашему космическому «эгоцентризму». Но, будучи небольшим астрономическим телом, Земля является самой знакомой нам планетой. Радиус земного шара R=6378 км. Вращение земного шара самым естественным образом объясняет смену дня и ночи, восход и заход светил. Некоторые греческие ученые догадывались и о годичном движении Земли вокруг Солнца. Годичное движение Земли перемещает наблюдателя и этим вызывает видимое смещение более близких звезд относительно более далеких. Строго же говоря, вокруг Солнца движется центр тяжести системы Земля - Луна, так называемый барицентр; вокруг этого центра Земля и Луна описывают в течение месяца свои орбиты.

Наши представления о внутреннем строении и физическом состоянии недр земного шара основаны на разнообразных данных, среди которых существенное значение имеют данные сейсмологии (наука о землетрясениях и законах распространения упругих волн в земном шаре). Изучение распространения в земном шаре упругих волн, возникающих при землятресениях или при мощных взрывах, позволило открыть и изучить слоистое строение земных недр.

Воздушный океан, окружающий Землю, - ее атмосфера, - является ареной, на которой разыгрываются разнообразные метеорологические явления. В основном земная атмосфера состоит из азота и кислорода.

Атмосферу земли условно делят на пять слоев: тропосферу, стратосферу, мезосферу, ионосферу и экзосферу. Большое влияние на многие процессы, происходящие на нашей планете, оказывает гидросфера, или Мировой океан, поверхность которого в 2,5 раза больше площади суши. Земной шар обладает магнитным полем. За пределами плотных слоев атмосферы он опоясан невидимыми тучами из очень быстродвижущихся частиц высокой энергии. Это так называемые пояса радиации. Строение и свойства поверхности нашей планеты, ее оболочек и недр, магнитного поля и поясов радиации исследуются комплексом геофизических наук.

Марс

Когда в 1965 году американская станция Маринер-4 с малого расстояния впервые получила снимки Марса, эти фотографии вызвали сенсацию. Астрономы были готовы увидеть что угодно, только не лунный ландшафт. Именно на Марс возлагали особые надежды те, кто хотел найти жизнь в космосе. Но эти чаяния не оправдались --Марс оказался безжизненным. По современным данным радиус Марса почти вдвое меньше земного (3390 км), а по массе Марс уступает Земле в десять раз. Обращается вокруг Солнца эта планета за 687 земных суток (1,88 года). Солнечные сутки на Марсе практически равны земным --24 ч 37 мин, а ось вращения планеты наклонена к плоскости орбиты на 25), что позволяет сделать вывод о сходной с земной смене(для Земли -- 23 времен года.

Но все мечты ученых о наличии жизни на Красной планете растаяли после того, как был установлен состав атмосферы Марса. Для начала следует указать, что давление у поверхности планеты в 160 раз меньше давления земной атмосферы. А состоит она на 95% из углекислого газа, содержит почти 3% азота, более 1,5% аргона, около 1,3% кислорода, 0,1% водяного пара, присутствует также угарный газ, найдены следы криптона и ксенона. Разумеется, в такой разреженной и негостеприимной атмосфере никакой жизни существовать не может.

Среднегодовая температура на Марсе составляет примерно -60 перепады температур в течение суток вызывают сильнейшие пылевые бури, во время которых густые облака песка и пыли поднимаются до высот в 20 км. Состав марсианской почвы был окончательно выявлен при исследованиях спускаемых американских аппаратов Викинг-1 и Викинг-2. Красноватый блеск Марса вызван обилием в его поверхностных породах оксида железа III (охры). Рельеф Марса весьма интересен. Здесь присутствуют темные и светлые области, как и на Луне, но в отличие от Луны, на Марсе смена цвета поверхности не связана со сменой высот: на одной высоте могут находиться как светлые, так и темные области.

До сих пор ученым не известна природа катаклизма, вызвавшего глобальные изменения климата на Марсе, приведшие к современным условиям.

Рельеф нашей планеты поражает своим многообразием и незыблемым величием. Широкие равнины, глубокие речные долины и остроконечные шпили высочайших вершин - все это, казалось бы, украшало и будет украшать наш мир всегда. Но это вовсе не так. На самом деле рельеф Земли изменяется.

Но чтобы заметить эти изменения, недостаточно и нескольких тысяч лет. Что уж говорить о жизни обычного человека. Развитие земной поверхности - это сложный и многогранный процесс, который длится вот уже несколько миллиардов лет. Итак, почему и как рельеф Земли изменяется во времени? И что лежит в основе этих изменений?

Рельеф - это…

Данный научный термин происходит от латинского слова relevo, что значит «поднимаю вверх». В геоморфологии под ним подразумевают совокупность всех существующих неровностей земной поверхности.

Среди ключевых элементов рельефа выделяется три: точка (например, горная вершина), линия (например, водораздел) и поверхность (например, плато). Эта градация очень схожа с выделением основных фигур в геометрии.

Рельеф может быть разным: горным, равнинным или же холмистым. Он представлен самыми разнообразными формами, которые могут отличаться друг от друга не только своим внешним видом, но и происхождением, возрастом. В географической оболочке нашей планеты рельеф играет крайне важную роль. Прежде всего, он является основой любого природно-территориального комплекса, подобно фундаменту жилого дома. Помимо этого, он принимает непосредственное участие в перераспределении влаги по а также участвует в формировании климата.

Как изменяется рельеф Земли? И какие его формы известны современным ученым? Об этом пойдет речь далее.

основные формы и возраст рельефных форм

Форма рельефа - фундаментальная единица в геоморфологической науке. Если говорить простыми словами, то это конкретная неровность земной поверхности, которая может быть простой или сложной, положительной или отрицательной, выпуклой или же вогнутой.

К основным относятся следующие формы земного рельефа: гора, котловина, лощина, хребет, седловина, овраг, каньон, плато, долина и прочие. По своему генезису (происхождению) они могут быть тектоническими, эрозионными, эоловыми, карстовыми, антропогенными и т. д. По масштабу принято выделять планетарные, мега-, макро-, мезо-, микро- и наноформы рельефа. К планетарным (самым крупным) относятся материки и океаническое ложе, геосинклинали и срединно-океанические хребты.

Одной из главных задач ученых-геоморфологов является определение возраста тех или иных форм рельефа. Причем этот возраст может быть как абсолютным, так и относительным. В первом случае он определяется при помощи специальной Во втором случае его устанавливают относительно возраста какой-либо другой поверхности (здесь уместно применять слова «моложе» или «древнее»).

Известный исследователь рельефа В. Девис сравнивал процесс его формирования с человеческой жизнью. Соответственно, он выделял четыре стадии развития любой формы рельефа:

  • детство;
  • юность;
  • зрелость;
  • дряхлость.

Как и почему рельеф Земли изменяется во времени?

В нашем мире ничто не вечно и не статично. Точно так же и рельеф Земли изменяется с течением времени. Вот только заметить эти изменения практически невозможно, ведь они длятся сотни тысяч лет. Правда, они проявляются в землетрясениях, вулканической деятельности и прочих земных явлениях, которые мы привыкли называть катаклизмами.

Главные первопричины рельефообразования (как, впрочем, и любых других процессов на нашей планете) - это энергия Солнца, Земли, а также космоса. Изменение рельефа Земли происходит постоянно. И в основе любых таких изменений лежат всего два процесса: денудация и аккумуляция. Эти процессы очень тесно взаимосвязаны, подобно известному принципу «инь-янь» в древнекитайской философии.

Аккумуляция - это процесс накопления рыхлого геологического материала на суше или дне водоемов. В свою очередь денудация - это процесс разрушения и переноса разрушенных фрагментов горных пород на другие участки земной поверхности. И если аккумуляция стремится накопить геологический материал, то денудация пытается его разрушить.

Главные факторы рельефообразования

Рисунок формируется вследствие постоянного взаимодействия эндогенных (внутренних) и экзогенных (внешних) сил Земли. Если сравнивать процесс рельефообразования со строительством здания, то тогда эндогенные силы можно назвать «строителями», а экзогенные силы - «скульпторами» земного рельефа.

К внутренним (эндогенным) относят вулканизм, землетрясения и К внешним (экзогенным) - работу ветра, текучей воды, ледников и т. д. Последние силы занимаются своеобразным оформлением рельефных форм, иногда придавая им причудливые очертания.

В целом геоморфологи выделяют всего четыре фактора рельефообразования:

  • внутренняя энергия Земли;
  • всемирная сила тяготения;
  • солнечная энергия;
  • энергия космоса.

AlexWIN32 20 августа 2017 в 13:36

Планетарный ландшафт

  • API ,
  • C++ ,
  • Разработка игр
  • Tutorial

Трудно поспорить, что ландшафт - неотъемлемая часть большинства компьютерных игр на открытых пространствах. Традиционный метод реализации изменения рельефа окружающей игрока поверхности следующий - берем сетку (Mesh), представляющую из себя плоскость и для каждого примитива в этой сетке производим смещение по нормали к этой плоскости на значение, конкретное для данного примитива. Говоря простыми словами, у нас есть одноканальная текстура размером 256 на 256 пикселей и сетка плоскости. Для каждого примитива по его координатам на плоскости берем значение из текстуры. Теперь просто смещаем по нормали к плоскости координаты примитива на полученное значение(рис.1)

Рис.1 карта высот + плоскость = ландшафт

1. Сектор

Очевидно, что не разумно строить ландшафт сразу для всей сферы - большую ее часть не будет видно. Поэтому нам нужно создать некую минимальную область пространства - некий примитив, из которых будет состоять рельеф видимой части сферы. Я назову его сектор. Как же нам его получить? Итак, посмотрите на рис.2a. Зеленая ячейка - это наш сектор. Далее построим шесть сеток, каждая из которых является гранью куба (рис.2b). Теперь давайте нормализуем координаты примитивов, которые формируют сетки (рис.2с).


Рис.2

В итоге мы получили спроецированный на сферу куб, где сектором является область на одной из его граней. Почему это работает? Рассмотрим произвольную точку на сетке как вектор от начала координат. Что есть нормализация вектора? Это преобразование заданного вектора в вектор в том же направлении, но с единичной длиной. Процесс следующий: сперва найдем длину вектора в евклидовой метрике согласно теореме Пифагора

Затем поделим каждый из компонентов вектора на это значение

Теперь спросим себя, что такое сфера? Сфера - это множество точек, равноудаленных от заданной точки. Параметрическое уравнение сферы выглядит так

Где x0, y0, z0 - координаты центра сферы, а R - ее радиус. В нашем случае центр сферы - это начало координат, а радиус равен единице. Подставляем известные значения и берем корень от двух частей уравнения. Получается следующее

Буквально последнее преобразование говорит нам следующее: «Для того, чтобы принадлежать сфере, длина вектора должна быть равна единице». Этого мы и добились нормализацией.

А что если сфера имеет произвольный центр и радиус? Найти точку, которая ей принадлежит, можно с помощью следующего уравнения

Где pS - точка на сфере, C - центр сферы, pNorm - ранее нормализованный вектор и R - радиус сферы. Говоря простыми словами, здесь происходит следующее - «мы перемещаемся от центра сферы по направлению к точке на сетке на расстояние R». Так как каждый вектор имеет единичную длину, то в итоге все точки равноудалены от центра сферы на расстояние ее радиуса, что делает истинным уравнение сферы.

2. Управление

Нам нужно получить группу секторов, которые потенциально видны из точки обзора. Но как это сделать? Предположим, что у нас есть сфера с центром в некоторой точке. Также у нас есть сектор, который расположен на сфере и точка P, расположенная в пространстве около сферы. Теперь построим два вектора - один направлен от центра сферы до центра сектора, другой - от центра сферы до точки обзора. Посмотрите на рис.3 - сектор может быть виден только если абсолютное значение угла между этими векторами меньше 90 градусов.


Рис.3 a - угол меньше 90 - сектор потенциально виден. b - угол болше 90 - сектор не виден

Как получить этот угол? Для этого нужно использовать скалярное произведение векторов. Для трехмерного случая оно вычисляется так:

Скалярное произведение обладает дистрибутивным свойством:

Ранее мы определили уравнение длины вектора - теперь мы можем сказать, что длина вектора равна корню от скалярного произведения этого вектора самого на себя. Или наоборот - скалярное произведения вектора самого на себя равно квадрату его длины.

Теперь давайте обратимся к закону косинусов. Одна из двух его формулировок выглядит так(рис.4):


Рис.4 закон косинусов

Если взять за a и b длины наших векторов, тогда угол alfa - то, что мы ищем. Но как нам получить значение с? Смотрите: если мы отнимем a от b, то получим вектор, направленный от a к b, а так как вектор характеризуется лишь направлением и длиной, то мы можем графически расположить его начало в конце вектора a. Исходя из этого, мы можем сказать, что с равен длине вектора b - a. Итак, у нас получилось

Выразим квадраты длин как скалярные произведения

Раскроем скобки, пользуясь дистрибутивным свойством

Немного сократим

И наконец, поделив обе чести уравнения на минус два, получим

Это еще одно свойство скалярного произведения. В нашем случае надо нормализовать векторы, чтобы их длины были равны единице. Угол нам вычислять не обязательно - достаточно значения косинуса. Если оно меньше нуля - то можно смело утверждать, что этот сектор нас не интересует

3. Сетка

Пора задуматься о том, как рисовать примитивы. Как я говорил ранее, сектор является основным компонентом в нашей схеме, поэтому для каждого потенциально видимого сектора мы будем рисовать сетку, примитивы которой будут формировать ландшафт. Каждую из ее ячеек можно отобразить с помощью двух треугольников. Из-за того, что каждая ячейка имеет смежные грани, значения большинства вершин треугольников повторяются для двух или более ячеек. Чтобы не дублировать данные в буфере вершин, заполним буфер индексов. Если индексы используются, то с их помощью графический конвейер определяет, какой примитив в буфере вершин ему обрабатывать. (рис.5) Выбранная мной топология - triangle list (D3D11_PRIMITIVE_TOPOLOGY_TRIANGLELIST)


Рис.5 Визуальное отображение индексов и примитивов

Создавать для каждого сектора отдельный буфер вершин слишком накладно. Гораздо эффективнее использовать один буфер с координатами в пространстве сетки, то есть x - столбец, а у - строка. Но как из них получить точку на сфере? Сектор представляет из себя квадратную область с началом в некой точке S. Все секторы имеют одинаковую длину грани - назовем ее SLen. Сетка покрывает всю площадь сектора а также имеет одинаковое количество строк и столбцов, поэтому для нахождение длины грани ячейки мы можем построить следующее уравнение

Где СLen - длина грани ячейки, MSize - количество строк или столбцов сетки. Делим обе части на MSize и получаем CLen


Рис.6 Наглядное отображение формирования точки на сетке

Чтобы получить точку на сфере, воспользуемся уравнением, выведенным ранее

4. Высота

Все, чего мы добились к этому моменту, мало напоминает ландшафт. Пришло время добавить то, что сделает его таковым - разность высот. Давайте представим, что у нас есть сфера единичного радиуса с центром в начале координат, а также множество точек {P0, P1, P2… PN}, которые расположены на этой сфере. Каждую из этих точек можно представить как единичный вектор от начала координат. Теперь представьте, что у нас есть набор значений, каждое из которых является длиной конкретного вектора (рис.7).

Хранить эти значения я буду в двухмерной текстуре. Нам нужно найти связь между координатами пикселя текстуры и вектором-точкой на сфере. Приступим.

Помимо декартовой, точка на сфере также может быть описана с помощью сферической системы координат. В этом случае ее координаты будут состоять из трех элементов: азимутного угла, полярного угла и значения кратчайшего расстояния от начала координат до точки. Азимутный угол - это угол между осью X и проекцией луча от начала координат до точки на плоскость XZ. Он может принимать значения от нуля до 360 градусов. Полярный угол - угол между осью Y и лучом от начала координат до точки. Он также может называться зенитным или нормальным. Принимает значения от нуля до 180 градусов. (см. рис.8)


Рис.8 Сферические координаты

Для перехода из декартовой системы в сферическую я пользуюсь следующими уравнениями(я полагаю, что ось Y направлена вверх):

Где d - расстояние до точки, a - полярный угол, b - азимутный угол. Параметр d также можно описать как «длина вектора от начала координат до точки»(что видно из уравнения). Если мы используем нормализованные координаты, то можем избежать деления при нахождении полярного угла. Собственно, зачем нам эти углы? Разделив каждый из них на его максимальный диапазон, мы получим коэффициенты от нуля до единицы и с их помощью произведем выборку из текстуры в шейдере. При получении коэффициента для полярного угла необходимо учитывать четверть, в которой расположен угол. «Но ведь значение выражения z / x не определено при x равном нулю» - скажете вы. Я более того скажу - при z равном нулю угол будет нулевым независимо от значения x.

Давайте добавим несколько специальных случаев для этих значений. У нас есть нормализованные координаты(нормаль) - добавим несколько условий: если значение X нормали равно нулю и значение Z больше нуля - тогда коэффициент равен 0.25, если X нулевое и Z меньше нуля - то будет 0.75. Если же значение Z равно нулю и X меньше нуля, то в этом случае коэффициент будет равен 0.5. Все это легко проверить на окружности. Но как поступить, если Z нулевое и X больше нуля - ведь в таком случае будут корректными как 0 так и 1? Представим, что мы выбрали 1 - чтож, давайте возьмем сектор с минимальным азимутным углом 0 и максимальным - 90 градусов. Теперь рассмотрим первые три вершины в первой строке сетки, которая этот сектор отображает. Для первой вершины у нас выполнилось условие и мы установили для текстурной координаты X значение 1. Очевидно, что для последующих двух вершин это условие не выполнится - углы для них находятся в первой четверти и в результате мы получим примерно такой набор - (1.0, 0.05, 0.1). Но для сектора с углами от 270 до 360 для последних трех вершин в той же строке все будет корректно - сработает условие для последней вершины, и мы получим набор (0.9, 0.95, 1.0). Если же мы выберем в качестве результата ноль, то получим наборы (0.0, 0.05, 0.1) и (0.9, 0.95, 0.0) - в любом случае это приведет к довольно заметным искажениям поверхности. Поэтому давайте применим следующее. Возьмем центр сектора, затем нормализуем его центр, переместив тем самым на сферу. Теперь вычислим скалярное произведение нормализованного центра на вектор (0, 0, 1). Формально говоря, этот вектор является нормалью к плоскости XY, и вычислив его скалярное произведение с нормализованным вектором центра сектора, мы сможем понять, с какой стороны от плоскости центр находится. Если оно меньше нуля, то сектор находится позади плоскости и нам нужно значение 1. Если скалярное произведение больше нуля, то сектор находится спереди от плоскости и поэтому граничным значением будет 0.(см. рис.9)


Рис.9 Проблема выбора между 0 и 1 для текстурных координат

Вот код получения текстурных координат из сферических. Обратите внимание - из-за погрешности в вычислениях мы не можем проверять значения нормали на равенство нулю, вместо этого мы должны сравнивать их абсолютные величины с неким пороговым значением (например 0.001)

//norm - нормализованные координаты точки, для которой мы получаем текстурные координаты //offset - нормализованные координаты центра сектора, которому принадлежит norm //zeroTreshold - пороговое значение (0.001) float2 GetTexCoords(float3 norm, float3 offset) { float tX = 0.0f, tY = 0.0f; bool normXIsZero = abs(norm.x) < zeroTreshold; bool normZIsZero = abs(norm.z) < zeroTreshold; if(normXIsZero || normZIsZero){ if(normXIsZero && norm.z > 0.0f) tX = 0.25f; else if(norm.x < 0.0f && normZIsZero) tX = 0.5f; else if(normXIsZero && norm.z < 0.0f) tX = 0.75f; else if(norm.x > 0.0f && normZIsZero){ if(dot(float3(0.0f, 0.0f, 1.0f), offset) < 0.0f) tX = 1.0f; else tX = 0.0f; } }else{ tX = atan(norm.z / norm.x); if(norm.x < 0.0f && norm.z > 0.0f) tX += 3.141592; else if(norm.x < 0.0f && norm.z < 0.0f) tX += 3.141592; else if(norm.x > 0.0f && norm.z < 0.0f) tX = 3.141592 * 2.0f + tX; tX = tX / (3.141592 * 2.0f); } tY = acos(norm.y) / 3.141592; return float2(tX, tY); }
приведу промежуточный вариант вершинного шейдера

//startPos - начало грани куба //vec1, vec2 - векторы направления грани куба //gridStep - размер ячейки //sideSize - длина ребра сектора //GetTexCoords() - преобразует сферические координаты в текстурные VOut ProcessVertex(VIn input) { float3 planePos = startPos + vec1 * input.netPos.x * gridStep.x + vec2 * input.netPos.y * gridStep.y; float3 sphPos = normalize(planePos); float3 normOffset = normalize(startPos + (vec1 + vec2) * sideSize * 0.5f); float2 tc = GetTexCoords(sphPos, normOffset); float height = mainHeightTex.SampleLevel(mainHeightTexSampler, tc, 0).x; posL = sphPos * (sphereRadius + height); VOut output; output.posH = mul(float4(posL, 1.0f), worldViewProj); output.texCoords = tc; return output; }

5. Освещение

Чтобы реализовать зависимость цвета ландшафта от освещения, воспользуемся следующим уравнением:

Где I - цвет точки, Ld - цвет источника света, Kd - цвет материала освещаемой поверхности, a - угол между вектором на источник и нормалью к освещаемой поверхности. Это частный случай закона косинусов Ламберта. Давайте разберемся, что здесь и почему. Под умножением Ld на Kd подразумевается покомпонентное умножение цветов, то есть (Ld.r * Kd.r, Ld.g * Kd.g, Ld.b * Kd.b). Возможно будет проще понять смысл, если представить следующую ситуацию: допустим, мы хотим осветить объект зеленым источником света, поэтому мы ожидаем, что цвет объекта будет в градациях зеленого. Результат (0 * Kd.r, 1 * Kd.g, 0 * Kd.b) дает (0, Kd.g, 0) - ровно то, что нам нужно. Идем далее. Как было озвучено ранее, косинусом угла между нормализованными векорами является их скалярное произведение. Давайте рассмотрим его максимальное и минимальное значение с нашей точки зрения. Если косинус угла между векторами равен 1, то этот угол равен 0 - следовательно, оба вектора коллинеарны (лежат на одной прямой).

То же самое справедливо и для значения косинуса -1, только в этом случае векторы указывают в противоположных направлениях. Получается, чем ближе вектор нормали и вектор к источнику света к состоянию коллинеарности - тем выше коэффициент освещенности поверхности, которой принадлежит нормаль. Также предполагается, что поверхность не может быть освещена, если ее нормаль указывает в противоположную по отношению к направлению на источник сторону - именно поэтому я использую только положительные значения косинуса.

Я использую параллельный источник, поэтому его позицией можно пренебречь. Единственное, что нужно учесть -то, что мы используем вектор на источник света. То есть, если направление лучей (1.0, -1.0, 0) - нам надо использовать вектор (-1.0, 1.0, 0). Единственное, что для нас представляет трудность - вектор нормали. Вычислить нормаль к плоскости просто - нам надо произвести векторное произведение двух векторов, которые ее описывают. Важно помнить что векторное произведение антикоммутативно - нужно учитывать порядок множителей. В нашем случае получить нормаль к треугольнику, зная координаты его вершин в пространстве сетки, можно следующим образом (Обратите внимание, что я не учитываю граничные случаи для p.x и p.y)

Float3 p1 = GetPosOnSphere(p); float3 p2 = GetPosOnSphere(float2(p.x + 1, p.y)); float3 p3 = GetPosOnSphere(float2(p.x, p.y + 1)); float3 v1 = p2 - p1; float3 v2 = p3 - p1; float3 n = normalzie(cross(v1, v2));
Но это еще не все. Большинство вершин сетки принадлежат сразу четырем плоскостям. Чтобы получить приемлемый результат, надо вычислить усредненную нормаль следующим образом:

Na = normalize(n0 + n1 + n2 + n3)
Реализовывать данный метод на GPU довольно затратно - нам потребуется два этапа на вычисление нормалей и их усреднение. К тому же эффективность оставляет желать лучшего. Исходя из этого я выбрал другой способ - использовать карту нормалей.(рис.10)


Рис.10 Карта нормалей

Принцип работы с ней такой же, как и с картой высот - преобразуем сферические координаты вершины сетки в текстурные и делаем выборку. Только вот напрямую эти данные мы использовать не сможем - ведь мы работаем со сферой, и у вершины есть своя нормаль, которую нужно учитывать. Поэтому данные карты нормалей мы будем использовать в качестве координат TBN базиса. Что такое базис? Вот вам такой пример. Представьте, что вы космонавт и сидите на маячке где-то в космосе. Вам из ЦУПа приходит сообщение: «Тебе нужно переместиться от маячка на 1 метр влево, на 2 метра вверх и на 3 метра вперед». Как это можно выразить математически? (1, 0, 0) * 1 + (0, 1, 0) * 2 + (0, 0, 1) * 3 = (1,2,3). В матричной форме данное уравнение можно выразить так:

Теперь представьте, что вы также сидите на маячке, только теперь вам из ЦУПа пишут: «мы там тебе векторы направлений прислали - ты должен продвинуться 1 метра по первому вектору, 2 метра по второму и 3 - по третьему». Уравнение для новых координат будет таким:

Покомпонентная запись выглядит так:

Или в матричной форме:

Так вот, матрица с векторами V1, V2 и V3 - это базис, а вектор (1,2,3) - координаты в пространстве этого базиса.

Представим теперь, что у вас есть набор векторов (базис M) и вы знаете, где вы находитесь относительно маячка (точка P). Вам нужно узнать ваши координаты в пространстве этого базиса - на сколько вам нужно продвинуться по этим векторам, чтобы оказаться в том же месте. Представим искомые координаты (X)

Будь P, M и X числами, мы бы просто разделили обе части уравнения на M, но увы… Пойдем другим путем - согласно свойству обратной матрицы

Где I это единичная матрица. В нашем случае она выглядит так

Что это нам дает? Попробуйте умножить это матрицу на X и вы получите

Также надо уточнить, что умножение матриц обладает свойством ассоциативности

Вектор мы вполне законно можем рассматривать как матрицу 3 на 1

Учитывая все вышесказанное, можно слелать вывод, что чтобы получить Х в правой части уравнения, нам нужно в правильном порядке умножить обе части на обратную M матрицу

Этот результат понадобится нам в дальнейшем.

Теперь вернемся к нашей проблеме. Я буду использовать ортонормированный базис - это значит, что V1, V2 и V3 ортогональны по отношению друг к другу(образуют угол 90 градусов) и имеют единичную длину. В качестве V1 будет выступать tangent вектор, V2 - bitangent вектор, V3 - нормаль. В традиционном для DirectX транспонированном виде матрица выглядит так:

Где T - tangent вектор, B - bitangent вектор и N - нормаль. Давайте найдем их. С нормалью проще всего-по сути это нормализованные координаты точки. Bitangent вектор равен векторному произведению нормали и tangent вектора. Сложнее всего придется с tangent вектором. Он равен направлению касательной к окружности в точке. Давайте разберем этот момент. Сперва найдем координаты точки на единичной окружности в плоскости XZ для некоторого угла a

Направление касательной к окружности в этой точке можно найти двумя способами. Вектор до точки на окружности и вектор касательной ортогональны - поэтому, так как функции sin и cos периодические - мы можем просто прибавить pi/2 к углу a и получим искомое направление. Согласно свойству смещения на pi/2:

У нас получился следующий вектор:

Мы также можем воспользоваться дифференцированием - подробнее см. в Приложении 3. Итак, на рисунке 11 вы можете видеть сферу, для каждой вершины которой построен базис. Синими векторами обозначены нормали, красными - tangent векторы, зелеными - bitangent векторы.


Рис.11 Сфера с TBN базисами в каждой вершине. Красные - tangent векторы, зеленые - bitangent векторы, синие векторы - нормали

С базисом разобрались - теперь давайте получим карту нормалей. Для этого воспользуемся фильтром Собеля. Фильтр Собеля вычисляет градиент яркости изображения в каждой точке(грубо говоря, вектор изменения яркости). Принцип действия фильтра заключается в том, что нужно применить некую матрицу значений, которая назвается «Ядром», к каждому пикселю и его соседям в пределах размерности этой матрицы. Предположим, что мы обрабатываем пиксель P ядром K. Если он не находится на границе изображения, то у него есть восемь соседей - левый верхний, верхний, правый верхний и так далее. Назовем их tl, t, tb, l, r, bl, b, br. Так вот, применение ядра K к этому пикселю заключается в следующем:

Pn = tl * K(0, 0) + t * K(0,1) + tb * K(0,2) +
          l * K(1, 0) + P * K(1,1) + r * K(1,2) +
          bl * K(2, 0) + b * K(2,1) + br * K(2,2)

Этот процесс называется «Свертка». Фильтр Собеля использует два ядра для вычисления градиента по вертикали и горизонтали. Обозначим их как Kx и Kу:

Основа есть - можно приступать к реализации. Сперва нам надо вычислить яркость пикселя. Я пользуюсь преобразованием из цветовой модели RGB в модель YUV для системы PAL:

Но так как наше изображение изначально в градациях серого, то этот этап можно пропустить. Теперь нам нужно «свернуть» исходное изображение с ядрами Kx и Ky. Так мы получим компоненты X и Y градиента. Также очень полезным может оказаться значение нормали этого вектора - его мы использовать не будем, но у избражений, содержащих нормализованные значения нормали градиента, есть несколько полезных применений. Под нормализацией я имею ввиду следующее уравнение

Где V - значение, которое нормализуем, Vmin и Vmax - область этих значений. В нашем случае минимальное и максимальное значения отслеживаются в процессе генерации. Вот пример реализации фильтра Собеля:

Float SobelFilter::GetGrayscaleData(const Point2 &Coords) { Point2 coords; coords.x = Math::Saturate(Coords.x, RangeI(0, image.size.width - 1)); coords.y = Math::Saturate(Coords.y, RangeI(0, image.size.height - 1)); int32_t offset = (coords.y * image.size.width + coords.x) * image.pixelSize; const uint8_t *pixel = &image.pixels; return (image.pixelFormat == PXL_FMT_R8) ? pixel : (0.30f * pixel + //R 0.59f * pixel + //G 0.11f * pixel); //B } void SobelFilter::Process() { RangeF dirXVr, dirYVr, magNormVr; for(int32_t y = 0; y < image.size.height; y++) for(int32_t x = 0; x < image.size.width; x++){ float tl = GetGrayscaleData({x - 1, y - 1}); float t = GetGrayscaleData({x , y - 1}); float tr = GetGrayscaleData({x + 1, y - 1}); float l = GetGrayscaleData({x - 1, y }); float r = GetGrayscaleData({x + 1, y }); float bl = GetGrayscaleData({x - 1, y + 1}); float b = GetGrayscaleData({x , y + 1}); float br = GetGrayscaleData({x + 1, y + 1}); float dirX = -1.0f * tl + 0.0f + 1.0f * tr + -2.0f * l + 0.0f + 2.0f * r + -1.0f * bl + 0.0f + 1.0f * br; float dirY = -1.0f * tl + -2.0f * t + -1.0f * tr + 0.0f + 0.0f + 0.0f + 1.0f * bl + 2.0f * b + 1.0f * br; float magNorm = sqrtf(dirX * dirX + dirY * dirY); int32_t ind = y * image.size.width + x; dirXData = dirX; dirYData = dirY; magNData = magNorm; dirXVr.Update(dirX); dirYVr.Update(dirY); magNormVr.Update(magNorm); } if(normaliseDirections){ for(float &dirX: dirXData) dirX = (dirX - dirXVr.minVal) / (dirXVr.maxVal - dirXVr.minVal); for(float &dirY: dirYData) dirY = (dirY - dirYVr.minVal) / (dirYVr.maxVal - dirYVr.minVal); } for(float &magNorm: magNData) magNorm = (magNorm - magNormVr.minVal) / (magNormVr.maxVal - magNormVr.minVal); }
Надо сказать, что фильтр Собеля обладает свойством линейной сепарабельности, поэтому данный метод может быть оптимизирован.

Сложная часть закончилась - осталось записать X и Y координаты направления градиента в R и G каналы пикселей карты нормалей.Для координаты Z я использую еденицу. Также я использую трехмерный вектор коэффициентов для настройки этих значений. Далее приведен пример генерации карты нормалей с комментариями:

//ImageProcessing::ImageData Image - оригинальное изображение. Структора содержит формат пикселя и данные изображения ImageProcessing::SobelFilter sobelFilter; sobelFilter.Init(Image); sobelFilter.NormaliseDirections() = false; sobelFilter.Process(); const auto &resX =sobelFilter.GetFilteredData(ImageProcessing::SobelFilter::SOBEL_DIR_X); const auto &resY =sobelFilter.GetFilteredData(ImageProcessing::SobelFilter::SOBEL_DIR_Y); ImageProcessing::ImageData destImage = {DXGI_FORMAT_R8G8B8A8_UNORM, Image.size}; size_t dstImageSize = Image.size.width * Image.size.height * destImage.pixelSize; std::vector dstImgPixels(dstImageSize); for(int32_t d = 0 ; d < resX.size(); d++){ //используем вектор настроечных коэффициентов. У меня он равен (0.03, 0.03, 1.0) Vector3 norm = Vector3::Normalize({resX[d] * NormalScalling.x, resY[d] * NormalScalling.y, 1.0f * NormalScalling.z}); Point2 coords(d % Image.size.width, d / Image.size.width); int32_t offset = (coords.y * Image.size.width + coords.x) * destImage.pixelSize; uint8_t *pixel = &dstImgPixels; //переводим значения из области [-1.0, 1.0] в а затем в область pixel = (0.5f + norm.x * 0.5f) * 255.999f; pixel = (0.5f + norm.y * 0.5f) * 255.999f; pixel = (0.5f + norm.z * 0.5f) * 255.999f; } destImage.pixels = &dstImgPixels; SaveImage(destImage, OutFilePath);
Теперь приведу пример использования карты нормалей в шейдере:

//texCoords - текстурные коорлинаты которые мы получили способом, описанным в п.4 //normalL - нормаль вершины //lightDir - вектор на источник света //Ld - цвет источника света //Kd - цвет материала освещаемой поверхности float4 normColor = mainNormalTex.SampleLevel(mainNormalTexSampler, texCoords, 0); //переводим значение из области в [-1.0, 1.0] и нормализуем результат float3 normalT = normalize(2.0f * mainNormColor.rgb - 1.0f); //переводим текстурную координату Х из области в float ang = texCoords.x * 3.141592f * 2.0f; float3 tangent; tangent.x = -sin(ang); tangent.y = 0.0f; tangent.z = cos(ang); float3 bitangent = normalize(cross(normalL, tangent)); float3x3 tbn = float3x3(tangent, bitangent, normalL); float3 resNormal = mul(normalT, tbn); float diff = saturate(dot(resNormal, lightDir.xyz)); float4 resColor = Ld * Kd * diff;

6. Level Of Detail

Ну вот, теперь наш ландшафт освещен! Можно лететь на Луну - загураем карту высот, ставим цвет материала, загружаем секторы, устанавливаем размер сетки равным {16, 16} и… Да, что-то маловато - поставлю ка я {256, 256} - ой, что-то все тормозит, да и зачем высокая детализация на дальних секторах? К томуже, чем ближе наблюдатель к планете, тем меньше секторов он может увидеть. Да… походу у нас еще много работы! Давайте сперва разберемся, как отсечь лишние секторы. Определяющей величиной здесь будет высота наблюдателя от поверхности планеты - чем она выше, тем больше секторов он может увидеть (рис.12)


Рис.12 Зависимость высоты наблюдателя от кол-ва обрабатываемых секторов

Высоту находим следующим образом - строим вектор от позиции наблюдателя на центр сферы, вычисляем его длину и отнимаем от нее значение радиуса сферы. Ранее я говорил, что если скаларное произведение вектора на наблюдателя и вектора на центр сектора меньше нуля, то этот сектор нас не интересует - теперь вместо нуля мы мы будем использовать значение, линейно зависимое от высоты. Сперва давайте определимся с переменными - итак, у нас будут минимальное и максимальное значения скалярного произведения и минимальное и максимальное значение высоты. Построим следующую систему уравнений

Теперь выразим А во втором уравнении

Подставим А из второго уравнения в первое

Выразим B из первого уравнения

Подставим B из первого уравнения во второе

Теперь подставим переменные в функцию

И получим

Где Hmin и Hmax-минимальное и максимальное значение высоты, Dmin и Dmax - минимальное и максимальное значения скалярного произведения. Эту задачу можно решить иначе - см. приложение 4.

Теперь нужно разобраться с уровнями детализации. Каждый из них будет определять область значения скалярного произведения. В псевдокоде процесс определения принадлежности сектора определенному уровню выглядит так:

Цикл по всем секторам вычисляем скалярное произведение вектора на наблюдателя и вектора на центр сектора если скалярное произведение меньше минимального порога, вычисленного ранее переходим к следующему сектору цикл по уровням детализации если скалярное произведение находится в рамках определенных для этого уровня добавляем сектор к этому уровню конец цикла по уровням детализации конец цикла по всем секторам
Нам надо вычислить область значения для каждого уровня. Сначала построим систему из двух уравнений

Решив ее, получим

Используя эти коэффициенты, определим функцию

Где Rmax это область значения скалярного произведения (D(H) - Dmin), Rmin - минимальная область, определяемая уровнем. Я использую значение 0.01. Теперь нам нужно отнять результат от Dmax

C помощью этой функции мы получим области для всех уровней. Вот пример:

Const float dotArea = dotRange.maxVal - dotRange.minVal; const float Rmax = dotArea, Rmin = 0.01f; float lodsCnt = lods.size(); float A = Rmax; float B = powf(Rmin / Rmax, 1.0f / (lodsCnt - 1.0f)); for(size_t g = 0; g < lods.size(); g++){ lods[g].dotRange.minVal = dotRange.maxVal - A * powf(B, g); lods[g].dotRange.maxVal = dotRange.maxVal - A * powf(B, g + 1); } lods.dotRange.maxVal = 1.0f;
Теперь мы можем определить, к какому уровню детализации принадлежит сектор (рис.13).


Рис.13 Цветовая дифференциация секторов согласно уровням детализации

Далее надо разобраться с размерами сеток. Хранить для каждого уровня свою сетку будет очень накладно - гораздо эффективнее менять детализацию одной сетки на лету с помощью тесселяции. Для этого нам надо помимо превычных вершинного и пиксельного, также реализовать hull и domain шейдеры. В Hull шейдере основная задача - подготовить контрольные точки. Он состоит из двух частей - основной функции и функции, вычисляющей параметры контрольной точки. Обязательно нужно указать значения для следующих атрибутов:

domain
partitioning
outputtopology
outputcontrolpoints
patchconstantfunc
Вот пример Hull шейдера для разбиения треугольниками:

Struct PatchData { float edges : SV_TessFactor; float inside: SV_InsideTessFactor; }; PatchData GetPatchData(InputPatch Patch, uint PatchId: SV_PrimitiveID) { PatchData output; flloat tessFactor = 2.0f; output.edges = tessFactor; output.edges = tessFactor; output.edges = tessFactor; output.inside = tessFactor; return output; } VIn ProcessHull(InputPatch Patch, uint PointId: SV_OutputControlPointID, uint PatchId: SV_PrimitiveID) { return Patch; }
Видите, основная работа выполняется в GetPatchData(). Ее задача - установить фактор тесселяции. О нем мы поговорим позднее-сейчас перейдем к Domain шейдеру. Он получает контрольные точки от Hull шейдера и координаты от тесселятора. Новое значение позиции или текстурных координат в случае разбиения треугольниками нужно вычислять по следующей формуле

N = C1 * F.x + C2 * F.y + C3 * F.z

Где C1, C2 и C3 - значения контрольных точек, F - координаты тесселятора. Также в Domain шейдере нужно установить атрибут domain, значение которого соответствует тому, которое было указано в Hull шейдере. Вот пример Domain шейдера:

Cbuffer buff0: register(b0) { matrix worldViewProj; } struct PatchData { float edges : SV_TessFactor; float inside: SV_InsideTessFactor; }; PIn ProcessDomain(PatchData Patch, float3 Coord: SV_DomainLocation, const OutputPatch Tri) { float3 posL = Tri.posL * Coord.x + Tri.posL * Coord.y + Tri.posL * Coord.z; float2 texCoords = Tri.texCoords * Coord.x + Tri.texCoords * Coord.y + Tri.texCoords * Coord.z; PIn output; output.posH = mul(float4(posL, 1.0f), worldViewProj); output.normalW = Tri.normalW; output.texCoords = texCoords; return output; }
Роль вершинного шейдера в этом случае сведена к минимуму - у меня он просто «прокидывает» данные на следующий этап.

Теперь нужно реализовать нечто подобное. Наша первостепенная задача - вычислить фактор тесселяции, а если точнее, то построить его зависимость от высоты наблюдателя. Снова построим систему уравнений

Решив ее таким же способом, как и ранее, получим

Где Tmin и Tmax - минимальный и максимальный коэффициенты тесселяции, Hmin и Hmax - минимальное и максимальное значения высоты наблюдателя. Минимальный коэффициент тесселяции у меня равен единице. максимальный устанавливается отдельно для каждого уровня
(например 1, 2, 4, 16).

В дальнейшем нам будет необходимо, чтобы рост фактора был ограничен ближайшей степенью двойки. то есть для значений от двух до трех мы устанавливаем значение два, для значений от 4 до 7 установим 4, при значениях от 8 до 15 фактор будет равен 8 и т.д. Давайте решим эту задачу для фактора 6. Сперва решим следующее уравнение

Давайте возьмем десятичный логарифм от двух частей уравнения

Согласно свойству логарифмов, мы можем переписать уравнение следующим образом

Теперь нам остается разделить обе части на log(2)

Но это еще не все. Х равен приблизительно 2.58. Далее нужно сбросить дробную часть и возвести двойку в степень получившегося числа. Вот код вычисления факторов тесселяции для уровней детализации

Float h = camera->GetHeight(); const RangeF &hR = heightRange; for(LodsStorage::Lod &lod: lods){ //derived from system //A + B * Hmax = Lmin //A + B * Hmin = Lmax //and getting A then substitution B in second equality float mTf = (float)lod.GetMaxTessFactor(); float tessFactor = 1.0f + (mTf - 1.0f) * ((h - hR.maxVal) / (hR.minVal - hR.maxVal)); tessFactor = Math::Saturate(tessFactor, RangeF(1.0f, mTf)); float nearPowOfTwo = pow(2.0f, floor(log(tessFactor) / log(2))); lod.SetTessFactor(nearPowOfTwo); }

7. Шум

Давайте посмотрим, как можно увеличить детализацию ландшафта, не изменяя при этом размер карты высот. Мне на ум приходит следующее - изменять значение высоты на значение, полученное из текстуры градиентного шума. Координаты, по которым мы будем осуществлять выборку, будут в N раз больше основных. При выборке будет задействован зеркальный тип адресации (D3D11_TEXTURE_ADDRESS_MIRROR) (см. рис.14).


Рис.14 Сфера с картой высот + сфера с шумовой картой = сфера с итоговой высотой

В этом случае высота будет вычисляться следующим образом:

//float2 tc1 - текстурные координаты, полученные из нормализованной точки, как было //рассказано ранее //texCoordsScale - множитель текстурных координат. В моем случае равен значению 300 //mainHeightTex, mainHeightTexSampler - текстура карты высот //distHeightTex, distHeightTexSampler - текстура градиентного шума //maxTerrainHeight - максимальная высота ландшафта. В моем случае 0.03 float2 tc2 = tc1 * texCoordsScale; float4 mainHeighTexColor = mainHeightTex.SampleLevel(mainHeightTexSampler, tc1, 0); float4 distHeighTexColor = distHeightTex.SampleLevel(distHeightTexSampler, tc2, 0); float height = (mainHeighTexColor.x + distHeighTexColor.x) * maxTerrainHeight;
Пока что периодический характер выражается значительно, но с добавлением освещения и текстурирования ситуация изменится в лучшую сторону. А что такое из себя представляет текстура градиентного шума? Грубо говоря это решётка из случайных значений. Давайте разберемся, как сопоставить размеры решетки размеру текстуры. Предположим мы хотим создать шумовую текстуру размера 256 на 256 пикселей. Все просто, если размеры решетки совпадают с размерами текстуры - у нас получится что-то подобное белому шуму в телевизоре. А как быть, если наша решетка имеет размеры, скажем, 2 на 2? Ответ прост - использовать интерполяцию. Одна из формулировок линейной интерполяции выглядит так:

Это самый быстрый, но в тоже время наименее подходящий нам вариант. Лучше использовать интерполяцию на основе косинуса:

Но мы не можем просто интерполировать между значениями по краям диагонали (левым нижним и правым верхним углом ячейки). В нашем случае интерполяцию нужно будет применять дважды. Давайте предствим одну из ячеек решетки. У нее есть четыре угла - назовем их V1, V2, V3, V4. Также внутри этой ячейки будет своя двухмерная система координат, где точка (0, 0) соответствует V1 и точка (1, 1) - V3 (см. рис.15a). Для того, чтобы получить значение с координатами (0.5, 0.5), нам сперва нужно получить два интерполированных по Х значения - между V1 и V4 и между V2 и V3, и наконец интерполировать по Y между этими значениями(рис.15b).

Вот пример:

Float2 coords(0.5f, 0.5f) float4 P1 = lerp(V1, V4, coords.x); float4 P2 = lerp(V2, V3, coords.x); float4 P = lerp(P1, P2, coords.y)


Рис.15 a - Изображение ячейки решетки с координатами V1, V2, V3 и V4. b - Последовательность двух интерполяций на примере ячейки

Теперь давайте сделаем следующее - для каждого пикселя шумовой текстуры возьмем интерполированное значение для сетки 2х2, затем прибавим к нему интерполированное значение для сетки 4х4, умноженное на 0.5, затем для сетки 8х8, умноженное на 0.25 и т.д до определенного предела - это назвается сложение октав (рис.16). Формула выглядит так:


Рис.16 Пример сложения октав

Вот пример реализации:

For(int32_t x = 0; x < size.width; x++) for(int32_t y = 0; y < size.height; y++){ float val = 0.0f; Vector2 normPos = {(float)x / (float)(sideSize - 1), (float)y / (float)(sideSize - 1)}; for(int32_t o = 0; o < octavesCnt; o++){ float frequency = powf(2.0f, (float)(startFrequency + o)); float intencity = powf(intencityFactor, (float)o); Vector2 freqPos = normPos * frequency; Point2 topLeftFreqPos = Cast(freqPos); Point2 btmRightFreqPos = topLeftFreqPos + Point2(1, 1); float xFrac = freqPos.x - (float)topLeftFreqPos.x; float yFrac = freqPos.y - (float)topLeftFreqPos.y; float iVal = GetInterpolatedValue(topLeftFreqPos, btmRightFreqPos, xFrac, yFrac); val += iVal * intencity; } noiseValues = val; }
Также для V1, V2, V3 и V4 вы можете получить сумму от самого значения и его соседей следующим образом:

Float GetSmoothValue(const Point2 &Coords) { float corners = (GetValue({Coords.x - 1, Coords.y - 1}) + GetValue({Coords.x + 1, Coords.y - 1}) + GetValue({Coords.x - 1, Coords.y + 1}) + GetValue({Coords.x + 1, Coords.y + 1})) / 16.0f; float sides = (GetValue({Coords.x - 1, Coords.y}) + GetValue({Coords.x + 1, Coords.y}) + GetValue({Coords.x, Coords.y - 1}) + GetValue({Coords.x, Coords.y + 1})) / 8.0f; float center = GetValue(Coords) / 4.0f; return center + sides + corners; }
и использовать эти значения при интерполяции. Вот остальной код:

Float GetInterpolatedValue(const Point2 &TopLeftCoord, const Point2 &BottomRightCoord, float XFactor, float YFactor) { Point2 tlCoords(TopLeftCoord.x, TopLeftCoord.y); Point2 trCoords(BottomRightCoord.x, TopLeftCoord.y); Point2 brCoords(BottomRightCoord.x, BottomRightCoord.y); Point2 blCoords(TopLeftCoord.x, BottomRightCoord.y); float tl = (useSmoothValues) ? GetSmoothValue(tlCoords) : GetValue(tlCoords); float tr = (useSmoothValues) ? GetSmoothValue(trCoords) : GetValue(trCoords); float br = (useSmoothValues) ? GetSmoothValue(brCoords) : GetValue(brCoords); float bl = (useSmoothValues) ? GetSmoothValue(blCoords) : GetValue(blCoords); float bottomVal = Math::CosInterpolation(bl, br, XFactor); float topVal = Math::CosInterpolation(tl, tr, XFactor); return Math::CosInterpolation(topVal, bottomVal, YFactor); }
В заключении подраздела хочу сказать, что все описанное мной до этого момента - несколько отличающаяся от канонической реализация шума Перлина.
С высотой разобрались - теперь давайте посмотрим, как быть с нормалями. Как и в случае с основной карты высот, из текстры шума нам надо сгенерировать карту нормалей. Затем в шейдере мы просто складываем нормаль из основной карты с нормалью из шумовой текстуры. Надо сказать, что это не совсем корректно, но дает приемлимый результат. Вот пример:
//float2 texCoords1 - текстурные координаты, полученные из нормализованной точки, как было рассказано ранее //mainNormalTex, mainNormalTexSampler - основная карта нормалей //distNormalTex, distNormalTexSampler - карта нормалей градиентного шума float2 texCoords2 = texCoords1 * texCoordsScale; float4 mainNormColor = mainNormalTex.SampleLevel(mainNormalTexSampler, TexCoords1, 0); float4 distNormColor = distNormalTex.SampleLevel(distNormalTexSampler, TexCoords2, 0); float3 mainNormal = 2.0f * mainNormColor.rgb - 1.0f; float3 distNormal = 2.0f * distNormColor.rgb - 1.0f; float3 normal = normalize(mainNormal + distNormal);

8. Hardware Instancing

Займемся оптимизацией. Сейчас цикл отрисовки секторов в псевдокоде выглядит так

Цикл по всем секторам вычисляем скаларное произведение вектора на точку и вектора на центр сектора если оно больше нуля устанавливаем значение S в данных шейдера устанавливаем значение V1 в данных шейдера устанавливаем значение V2 в данных шейдера отрисовываем сетку конец условия конец цикла по всем секторам
производительность даного подхода чрезвычайно мала. Вариантов оптимизации несколько - можно построить квадродерево для каждой плоскости куба, чтобы не вычислять скалярное произведение для каждого сектора. Также можно обновлять значения V1 и V2 не для каждого сектора, а для шести плоскостей куба, кторым они принадлежат. Я выбрал третий вариант - Instancing. Вкратце о том, что это такое. Допустим, вы хотите нарисовать лес. У вас есть модель дерева, также имеется набор матриц преобразований - позиции деревьев, возможное масштабирование или поворот. Вы можете создать один буфер, в котором будут содержаться преобразованные в мировое пространство вершины всех деревьев - вариант неплохой, лес по карте не бегает. А что если вам надо реализовывать преобразования - скажем, покачивания деревьев на ветру. Можно сделать так - копируем данные вершин модели N раз в один буфер, добавляя к данным вершины индекс дерева (от 0 до N). Далее обновляем массив матриц преобразований и передаем его как переменную в шейдер. В шейдере мы выбираем нужную матрицу по индексу дерева. Как можно избежать дублирования данных? Для начала хочу обратить ваше внимание, что данные вершины можно собрать из нескольких буферов. Для при описании вершины нужно указать индекс источника в поле InputSlot структуры D3D11_INPUT_ELEMENT_DESC. Это можно использовать при реализации морфирующей лицевой анимации - скажем у вас есть два буфера вершин, содержаших два состояния лица, и вы хотите линейно интерполировать эти значения. Вот как нужно описать вершину:

D3D11_INPUT_ELEMENT_DESC desc = { /*part1*/ {"POSITION", 0, DXGI_FORMAT_R32G32B32_FLOAT, 0, 0, D3D11_INPUT_PER_VERTEX_DATA, 0}, {"NORMAL", 0, DXGI_FORMAT_R32G32B32_FLOAT, 0, 12, D3D11_INPUT_PER_VERTEX_DATA, 0}, {"TEXCOORD", 0, DXGI_FORMAT_R32G32B32_FLOAT, 0, 24, D3D11_INPUT_PER_VERTEX_DATA, 0}, /*part2*/ {"POSITION", 1, DXGI_FORMAT_R32G32B32_FLOAT, 1, 0, D3D11_INPUT_PER_VERTEX_DATA, 0}, {"NORMAL", 1, DXGI_FORMAT_R32G32B32_FLOAT, 1, 12, D3D11_INPUT_PER_VERTEX_DATA, 0}, {"TEXCOORD", 1, DXGI_FORMAT_R32G32B32_FLOAT, 1, 24, D3D11_INPUT_PER_VERTEX_DATA, 0} }
в шейдере вершину нужно описать так:

Struct VIn { float3 position1: POSITION0; float3 normal1: NORMAL0; float2 tex1: TEXCOORD0; float3 position2: POSITION1; float3 normal2: NORMAL1; float2 tex2: TEXCOORD1; }
далее вы просто интерполируете значения

Float3 res = lerp(input.position1, input.position2, factor);
К чему я это? Вернемся к примеру с деревьями. Вершину будем собирать из двух источников - первый будет содержать позицию в локальном пространстве, текстурные координаты и нормаль, второй - матрицу преобразования в виде четырех четырехмерных векторов. Описание вершины выглядит так:

D3D11_INPUT_ELEMENT_DESC desc = { /*part1*/ {"POSITION", 0, DXGI_FORMAT_R32G32B32_FLOAT, 0, 0, D3D11_INPUT_PER_VERTEX_DATA, 0}, {"NORMAL", 0, DXGI_FORMAT_R32G32B32_FLOAT, 0, 12, D3D11_INPUT_PER_VERTEX_DATA, 0}, {"TEXCOORD", 0, DXGI_FORMAT_R32G32B32_FLOAT, 0, 24, D3D11_INPUT_PER_VERTEX_DATA, 0}, /*part2*/ {"WORLD", 0, DXGI_FORMAT_R32G32B32A32_FLOAT, 1, 0, D3D11_INPUT_PER_INSTANCE_DATA, 1}, {"WORLD", 1, DXGI_FORMAT_R32G32B32A32_FLOAT, 1, 16, D3D11_INPUT_PER_INSTANCE_DATA, 1}, {"WORLD", 2, DXGI_FORMAT_R32G32B32A32_FLOAT, 1, 32, D3D11_INPUT_PER_INSTANCE_DATA, 1}, {"WORLD", 3, DXGI_FORMAT_R32G32B32A32_FLOAT, 1, 48, D3D11_INPUT_PER_INSTANCE_DATA, 1}, }
Обратите внимание, что во второй части поле InputSlotClass равно D3D11_INPUT_PER_INSTANCE_DATA и поле InstanceDataStepRate равно единице (Краткое описание поля InstanceDataStepRate см. в приложении 1). В этом случае сборщик будет использовать данные всего буфера из источника с типом D3D11_INPUT_PER_VERTEX_DATA для каждого элемента из источника с типом D3D11_INPUT_PER_INSTANCE_DATA. При этом в шейдере данные вершины можно описать следующим образом:

Struct VIn { float3 posL: POSITION; float3 normalL: NORMAL; float2 tex: TEXCOORD; row_major float4x4 world: WORLD; };
Создав второй буфер с атрибутами D3D11_USAGE_DYNAMIC и D3D11_CPU_ACCESS_WRITE, мы сможем обновлять его со стороны CPU. Отрисовывать такого рода геометрию нужно с помощью вызовов DrawInstanced() или DrawIndexedInstanced(). Есть еще вызовы DrawInstancedIndirect() и DrawIndexedInstancedIndirect() - про них см. в приложении 2.

Приведу пример установки буферов и использования функции DrawIndexedInstanced():

//vb - вершинный буфер //tb - "истансный" буфер //ib - индексный буфер //vertexSize - размер элемента в вершинном буфере //instanceSize - размер элемента в "инстансном" буфере //indicesCnt - количество индексов //instancesCnt - количество "инстансев" std::vector buffers = {vb, tb}; std::vector strides = {vertexSize, instanceSize}; std::vector offsets = {0, 0}; deviceContext->IASetVertexBuffers(0,buffers.size(),&buffers,&strides,&offsets); deviceContext->IASetIndexBuffer(ib, DXGI_FORMAT_R32_UINT, 0); deviceContext->IASetPrimitiveTopology(D3D11_PRIMITIVE_TOPOLOGY_TRIANGLELIST); deviceContext->DrawIndexedInstanced(indicesCnt, instancesCnt, 0, 0, 0);
Теперь давайте наконец вернемся к нашей теме. Сектор мужно описать точкой на плоскости, которой он принадлежит и двумя векторами, которые эту плоскость описывают. Следовательно вершина будет состоять из двух источников. Первый - координаты в пространстве сетки, второй - данные сектора. Описание вершины выглядит так:

Std::vector meta = { //координаты в пространстве сетки {"POSITION", 0, DXGI_FORMAT_R32G32B32_FLOAT, 0, 0, D3D11_INPUT_PER_VERTEX_DATA, 0} //первый вектор грани {"TEXCOORD", 0, DXGI_FORMAT_R32G32B32_FLOAT, 1, 0, D3D11_INPUT_PER_INSTANCE_DATA, 1}, //второй вектор грани {"TEXCOORD", 1, DXGI_FORMAT_R32G32B32_FLOAT, 1, 12, D3D11_INPUT_PER_INSTANCE_DATA, 1}, //начало грани {"TEXCOORD", 2, DXGI_FORMAT_R32G32B32_FLOAT, 1, 24, D3D11_INPUT_PER_INSTANCE_DATA, 1} }
Обратите внимание, что для хранения координат в пространстве сетки я использую трехмерный вектор (координата z не используется)

9. Frustum culling

Еще один важный компонент оптимизации - отсечение по пирамиде видимости (Frustum culling). Пирамида видимости - это та область сцены, которую «видит» камера. Как ее построить? Сперва вспомним, что точка может быть в четырех системах координат - локальной, мировой, видовой и системе координат проекции. Переход между ними осуществляется посредством матриц - мировой, видовой и матрицы проекции, причем преобразования должны проходить последовательно - от локального в мировое, из мирового в видовое и наконец из видового в пространство проекции. Все эти преобразования можно объединить в одно посредством умножения этих матриц.

Мы используем перспективную проекцию, которая подразумевает так называемое «однородное деление» - после умножения вектора (Px, Py, Pz, 1) на матрицу проекции его компоненты следует разделить на компонент W этого вектора. После перехода в пространство проекции и однородного деления точка оказывается в NDC пространстве. NDC пространство представляет из себя набор из трех координат x, y, z, где x и y принадлежат [-1, 1], а z - (Надо сказать, что в OpenGL параметры несколько иные).

Теперь давайте приступим к решению нашей задачи. В моем случае пирамида расположена в видовом пространстве. Нам нужно шесть плоскостей, которые ее описывают (рис.17а). Плоскость можно описать с помощью нормали и точки, которая этой плоскости принадлежит. Сперва давайте получим точки - для этого возьмем следующий набор координат в NDC пространстве:

Std::vectorPointsN = { {-1.0f, -1.0f, 0.0f, 1.0f}, {-1.0f, 1.0f, 0.0f, 1.0f}, { 1.0f, 1.0f, 0.0f, 1.0f}, {1.0f, -1.0f, 0.0f, 1.0f}, {-1.0f, -1.0f, 1.0f, 1.0f}, {-1.0f, 1.0f, 1.0f, 1.0f}, { 1.0f, 1.0f, 1.0f, 1.0f}, {1.0f, -1.0f, 1.0f, 1.0f} };
Посмотрите, в первых четырех точках значение z равно 0 - это значит что они принадлежат ближней плоскости отсечения, в последних четырех z равно 1 - они принадлежат дальней плоскости отсечения. Теперь эти точки нужно преобразовать в видовое пространство. Но как?

Помните пример про космонавта - так вот тут тоже самое. Нам нужно умножить точки на обратную матрицу проекции. Правда, после этого нужно еще поделить каждый из них на его координату W. В результате мы получим нужные координаты (рис.17b). Давайте теперь разберемся с нормалями - они должны быть направлены внутрь пирамиды, поэтому нам надо выбрать необходимый порядок вычисления векторного произведения.

Matrix4x4 invProj = Matrix4x4::Inverse(camera->GetProjMatrix()); std::vectorPointsV; for(const Point4F &pN: pointsN){ Point4F pV = invProj.Transform(pN); pV /= pV.w; pointsV.push_back(Cast(pV)); } planes = {pointsV, pointsV, pointsV}; //near plane planes = {pointsV, pointsV, pointsV}; //far plane planes = {pointsV, pointsV, pointsV}; //left plane planes = {pointsV, pointsV, pointsV}; //right plane planes = {pointsV, pointsV, pointsV}; //top plane planes = {pointsV, pointsV, pointsV}; //bottom plane planes.normal *= -1.0f; planes.normal *= -1.0f;


Рис.17 Пирамида видимости

Пирамида построена - настало время ее использовать. Те секторы, которые не попадают внутрь пирамиды, мы не рисуем. Для того, что бы определить, находится ли сектор внутри пирамиды видимости, мы будем проверять ограничивающую сферу, расположенную в центре этого сектора. Это не дает точных результатов, но в данном случае я не вижу ничего страшного в том, что будут нарисованы несколько лишних секторов. Радиус сферы вычисляется следующим образом:

Где TR - правый верхний угол сектора, BL - левый нижний угол. Так как все секторы имеют одинаковую площадь, то радиус достаточно вычислить один раз.

Как нам определить, находится ли сфера, описывающая сектор, внутри пирамиды видимости? Сперва нам нужно определить, пересекается ли сфера с плоскостьтю и если нет, то с какой стороны от нее она находится. Давайте получим вектор на центр сферы

Где P - точка на плоскости и S - центр сферы. Теперь вычислим скалярное произведение этого вектора на нормаль плоскости. Ориентацию можно определить с помошью знака скалярного произведения - как говорилось ранее, если он положительный, то сфера находится спереди от плоскости, если отрицательный, то сфера находится позади. Осталось определить, пересекает ли сфера плоскость. Давайте возьмем два вектора - N (вектор нормали) и V. Теперь построим вектор от N до V - назовем его K. Так вот, нам надо найти такую длину N, чтобы он с K образовывал угол 90 градусов (формально говоря, чтобы N и K были ортогональны). Оки доки, посмотрите на рис.18a - из свойств прямоугольного треугольника мы знаем, что

Нужно найти косинус. Используя ранее упомянутое свойство скалярного произведения

Делим обе части на |V|*|N| и получаем

Используем этот результат:

Так как |V| это просто число, то можно сократить на |V|, и тогда мы получим

Так как вектор N нормализован, то последним шагом мы просто умножем его на получившееся значение, в противном случае вектор следует нормализовать - в этом случае конечное уравнение выглядит так:

Где D это наш новый вектор. Этот процес называется «Векторная проекция»(рис.18b). Но зачем нам это? Мы знаем, что вектор определяется длиной и направлением и никак не меняется от его положения - это значит, что если мы расположим D так, чтобы он указывал на S, то его длина будет равна минимальному расстоянию от S до плоскости (рис.18с)


Рис.18 a Проекция N на V, b Наглядное отображение длины спроецированного N применительно к точке, с Наглядное отображение
длины спроецированного N применительно к сфере с центром в S

Так как у нас нет необходимости в спроецированном векторе, достаточно лишь вычислить его длину. Учитывая, что N это единичный вектор, нам нужно лишь вычислить скалярное произведение V на N. Собрав все воедино, мы можем наконец заключить, что сфера пересекает плоскость, если значение скалярного произведения вектора на центр сферы и нормали к плоскости больше нуля и меньше значения радиуса этой сферы.

Для того, чтобы утверждать, что сфера находится внутри пирамиды видимости, нам надо убедиться, что она либо пересекает одну из плоскостей, либо находится спереди от каждой из них. Можно поставить вопрос подругому - если сфера не пересекает и находится позади хотябы одной из плоскостей - она определенно вне пирамиды видимости. Так мы и сделаем. Обратите внимание, что я перевожу центр сферы в тоже пространство, в котором расположена пирамида - в пространство вида.

Bool Frustum::TestSphere(const Point3F &Pos, float Radius, const Matrix4x4 &WorldViewMatrix) const { Point3F posV = WorldViewMatrix.Transform(Pos); for(const Plane &pl: planes){ Vector3 toSphPos = posV - pl.pos; if(Vector3::Dot(toSphPos, pl.normal) < -Radius) return false; } return true; }

10. Трещины

Еще одна проблема, которую нам предстоит решить - трещины на границах уровней детализации (рис.19).


Рис.19 демонстрация трещин ландшафта

В первую очередь нам надо определить те секторы, которые лежат на границе уровней детализации. На первый взгляд кажется, что это ресурсоемкая задача - ведь количество секторов на каждом из уровней постоянно меняется. Но если использовать данные смежности, то решение значительно упрощается. Что такое данные смежности? Смотрите, у каждого сектора есть четыре соседа. Набор ссылок на них - будь то указатели или индексы - и есть данные смежности. С их помощью мы легко определим, какой сектор лежит на границе - достаточно проверить, какому уровню принадлежат его соседи.

Ну что же, давайте найдем соседей каждого сектора. И опять же нам не нужно переберать в цикле все секторы. Представим, что мы работаем с сектором с координатами X и Y в пространстве сетки.

Если он не касается ребра куба, то координаты его соседей будут такими:

Сосед сверху - (X, Y - 1)
Сосед снизу - (X, Y + 1)
Сосед слева - (X - 1, Y)
Сосед справа - (X + 1, Y)

Если же сектор касается ребра, то мы помещаем его специальный контейнер. После обработки всех шести граней в нем будут содержаться все граничные секторы куба. Вот в этом контейнере нам и предстоит осуществлять перебор. Заранее вычислим ребра для каждого сектора:

Struct SectorEdges { CubeSectors::Sector *owner; typedef std::pairEdge; Edge edges; }; std::vector sectorsEdges; //borderSectors - контейнер с граничными секторами for(CubeSectors::Sector &sec: borderSectors){ // каждый сектор содержит два вектора, которые описывают грань куба, // которой он принадлежит Vector3 v1 = sec.vec1 * sec.sideSize; Vector3 v2 = sec.vec2 * sec.sideSize; //sec.startPos - начало сектора в локальном пространстве SectorEdges secEdges; secEdges.owner = &sec; secEdges.edges = {sec.startPos, sec.startPos + v1}; secEdges.edges = {sec.startPos, sec.startPos + v2}; secEdges.edges = {sec.startPos + v2, sec.startPos + v2 + v1}; secEdges.edges = {sec.startPos + v1, sec.startPos + v2 + v1}; sectorsEdges.push_back(secEdges); }
Далее идет сам перебор

For(SectorEdges &edgs: sectorsEdges) for(size_t e = 0; e < 4; e++) if(edgs.owner->adjacency[e] == nullptr) FindSectorEdgeAdjacency(edgs, (AdjacencySide)e, sectorsEdges);
Функция FindSectorEdgeAdjacency() выглядит так

Void CubeSectors::FindSectorEdgeAdjacency(SectorEdges &Sector, CubeSectors::AdjacencySide Side, std::vector &Neibs) { SectorEdges::Edge &e = Sector.edges; for(SectorEdges &edgs2: Neibs){ if(edgs2.owner == Sector.owner) continue; for(size_t e = 0; e < 4; e++){ SectorEdges::Edge &e2 = edgs2.edges[e]; if((Math::Equals(e.first, e2.first) && Math::Equals(e.second, e2.second)) || (Math::Equals(e.second, e2.first) && Math::Equals(e.first, e2.second))) { Sector.owner->adjacency = edgs2.owner; edgs2.owner->adjacency[e] = Sector.owner; return; } } } }
Обратите внимание, что мы обновляем данные смежности для двух секторов - искомого (Sector) и найденного соседа.

Теперь, используя полученные нами данные смежности, нам предстоит найти те ребра секторов, которые принадлежат границе уровней детализации. План такой - перед отрисовкой найдем граничные секторы. Затем для каждого сектора в Instance buffer помимо основной
информации запишем коэффициент тесселяции и четырехмерный вектор коэффициентов тесселяции для соседних секторов. Описание вершины теперь будет выглядеть так:

Std::vector meta = { //координаты в пространстве сетки {"POSITION", 0, DXGI_FORMAT_R32G32B32_FLOAT, 0, 0, D3D11_INPUT_PER_VERTEX_DATA, 0} //первый вектор грани {"TEXCOORD", 0, DXGI_FORMAT_R32G32B32_FLOAT, 1, 0,D3D11_INPUT_PER_INSTANCE_DATA, 1}, //второй вектор грани {"TEXCOORD", 1, DXGI_FORMAT_R32G32B32_FLOAT, 1, 12, D3D11_INPUT_PER_INSTANCE_DATA, 1}, //начало грани {"TEXCOORD", 2, DXGI_FORMAT_R32G32B32_FLOAT, 1, 24, D3D11_INPUT_PER_INSTANCE_DATA, 1}, //коэффициенты тесселяции соседних секторов {"TEXCOORD", 3, DXGI_FORMAT_R32G32B32A32_FLOAT, 1, 36, D3D11_INPUT_PER_INSTANCE_DATA, 1}, //коэффициент тесселяции сектора {"TEXCOORD", 4, DXGI_FORMAT_R32_FLOAT, 1, 52, D3D11_INPUT_PER_INSTANCE_DATA, 1} }
После того, как мы распределили секторы по уровням детализации, определим соседние коэффициенты тесселяции для каждого сектора:

For(LodsStorage::Lod &lod: lods){ const std::vector §ors = lod.GetSectors(); bool lastLod = lod.GetInd() == lods.GetCount() - 1; for(Sector *s: sectors){ int32_t tessFacor = s->GetTessFactor(); s->GetBorderTessFactor() = { GetNeibTessFactor(s, Sector::ADJ_BOTTOM, tessFacor, lastLod), GetNeibTessFactor(s, Sector::ADJ_LEFT, tessFacor, lastLod), GetNeibTessFactor(s, Sector::ADJ_TOP, tessFacor, lastLod), GetNeibTessFactor(s, Sector::ADJ_RIGHT, tessFacor, lastLod) }; } }
Функция, которая ищет соседний фактор тесселяции:

Float Terrain::GetNeibTessFactor(Sector *Sec, Sector::AdjacencySide Side, int32_t TessFactor, bool IsLastLod) { Sector *neib = Sec->GetAdjacency(); int32_t neibTessFactor = neib->GetTessFactor(); return (neibTessFactor < TessFactor) ? (float)neibTessFactor: 0.0f; }
Если мы возвращаем ноль, то сосед на стороне Side не представляет для нас интерес. Забегу вперед и скажу, что нам нужно устранять трещины со стороны уровня с большим коэффициентом тесселяции.

Теперь передем к шейдеру. Напомню, что сперва нам нужно получить координаты сетки, используя координаты тесселятора. Затем эти координаты преобразуются в точку на грани куба, эта точка нормализуется - и вот мы имеем точку на сфере:

Float3 p = Tri.netPos * Coord.x + Tri.netPos * Coord.y + Tri.netPos * Coord.z; float3 planePos = Tri.startPos + Tri.vec1 * p.x * gridStep.x + Tri.vec2 * p.y * gridStep.y; float3 sphPos = normalize(planePos);
Сперва нам надо выяснить, принадлежит ли вершина либо первой или последней строке сетки, либо первому или последнему столбцу - в этом случае вершина принадлежит ребру сектора. Но этого не достаточно - нам нужно определить, принадлежит ли вершина границе уровней детализации. Для этого используем информацию о соседних секторах, а точнее их уровни тесселяции:

Float4 bTf = Tri.borderTessFactor; bool isEdge = (bTf.x != 0.0f && p.y == 0.0f) || //bottom (bTf.y != 0.0f && p.x == 0.0f) || //left (bTf.z != 0.0f && p.y == gridSize.y) || //top (bTf.w != 0.0f && p.x == gridSize.x) //right
Теперь главный этап - собственно, устранение трещин. Посмотрите на рис.20. Красная линия - грань вершины, принадлежащей второму уровню детализации. Две синие линии - грани третьего уровня детализации. Нам нужно, чтобы V3 принадлежала красной линии - то есть лежала на грани второго уровня. Как как высоты V1 и V2 равны для обоих уровней, V3 можно найти с помощью линейной интерполяции между ними


Рис.20 Демонстрация граней, которые образуют трещину, в виде линий

Пока мы не имеем ни V1 и V2, ни коэффициента F. Сначала нам нужно найти индекс точки V3. Тоесть если сетка имеет размер 32 на 32 и коэффициент тесселяции равен четырем, то этот индекс будет от нуля до 128 (32 * 4). У нас уже есть координаты в пространстве сетки p - в рамках данного примера они могут быть например (15.5, 16). Для получения индекса нужно умножить одну из координат p на коэффициент тесселяции. Нам также понадобится начало грани и направление на ее конец - один из углов сектора.

Float edgeVertInd = 0.0f; float3 edgeVec = float3(0.0f, 0.0f, 0.0f); float3 startPos = float3(0.0f, 0.0f, 0.0f); uint neibTessFactor = 0; if(bTf.x != 0.0f && p.y == 0.0f){ // bottom edgeVertInd = p.x * Tri.tessFactor; edgeVec = Tri.vec1; startPos = Tri.startPos; neibTessFactor = (uint)Tri.borderTessFactor.x; }else if(bTf.y != 0.0f && p.x == 0.0f){ // left edgeVertInd = p.y * Tri.tessFactor; edgeVec = Tri.vec2; startPos = Tri.startPos; neibTessFactor = (uint)Tri.borderTessFactor.y; }else if(bTf.z != 0.0f && p.y == gridSize.y){ // top edgeVertInd = p.x * Tri.tessFactor; edgeVec = Tri.vec1; startPos = Tri.startPos + Tri.vec2 * (gridStep.x * gridSize.x); neibTessFactor = (uint)Tri.borderTessFactor.z; }else if(bTf.w != 0.0f && p.x == gridSize.x){ // right edgeVertInd = p.y * Tri.tessFactor; edgeVec = Tri.vec2; startPos = Tri.startPos + Tri.vec1 * (gridStep.x * gridSize.x); neibTessFactor = (uint)Tri.borderTessFactor.w; }
Далее нам нужно найти индексы для V1 и V2. Представтье что у вас есть число 3. Вам нужно найти два ближайших числа, кратных двум. Для этого вы вычисляете остаток от деления трех на два - он равен еденице. Затем вы вычитаете либо прибавляете этот остаток к трем и получаете нужный результат. Также с индексами, только вместо двух у нас будет соотношение коэффициентов тесселяции уровней детализации. Тоесть если у третьего уровня коэффициент равен 16, а у второго 2, то соотношение будет равно 8. Теперь, чтобы получить высоты, сперва надо получить соответствующие точки на сфере, нормализовав точки на грани. Начало и направление ребра мы уже подготовили - осталось вычислить длину вектора от V1 до V2. Так как длина ребра ячейки оригинальной сетки равна gridStep.x, то нужная нам длина равна gridStep.x / Tri.tessFactor. Затем по точкам на сфере мы получим высоту, как было рассказано ранее.

Float GetNeibHeight(float3 EdgeStartPos, float3 EdgeVec, float VecLen, float3 NormOffset) { float3 neibPos = EdgeStartPos + EdgeVec * VecLen; neibPos = normalize(neibPos); return GetHeight(neibPos, NormOffset); } float vertOffset = gridStep.x / Tri.tessFactor; uint tessRatio = (uint)tessFactor / (uint)neibTessFactor; uint ind = (uint)edgeVertInd % tessRatio; uint leftNeibInd = (uint)edgeVertInd - ind; float leftNeibHeight = GetNeibHeight(startPos, edgeVec, vertOffset * leftNeibInd, normOffset); uint rightNeibInd = (uint)edgeVertInd + ind; float rightNeibHeight = GetNeibHeight(startPos, edgeVec, vertOffset * rightNeibInd, normOffset);
Ну и послендний компонент - фактор F. Его мы получим разделив остаток от деления на соотношение коэффициентов (ind) на соотношение коэффициентов (tessRatio)

Float factor = (float)ind / (float)tessRatio;
Завершающий этап - линейная интерполяция высот и получение новой вершины

Float avgHeight = lerp(leftNeibHeight, rightNeibHeight, factor); posL = sphPos * (sphereRadius + avgHeight);
Также может появиться трещина в месте, где граничат секторы с текстурными координатами ребер равными 1 или 0. В этом случае я беру среднее значение между высотами для двух координат:

Float GetHeight(float2 TexCoords) { float2 texCoords2 = TexCoords * texCoordsScale; float mHeight = mainHeightTex.SampleLevel(mainHeightTexSampler, TexCoords, 0).x; float dHeight = distHeightTex.SampleLevel(distHeightTexSampler, texCoords2, 0).x; return (mHeight + dHeight) * maxTerrainHeight; } float GetHeight(float3 SphPos, float3 NormOffset) { float2 texCoords1 = GetTexCoords(SphPos, NormOffset); float height = GetHeight(texCoords1); if(texCoords1.x == 1.0f){ float height2 = GetHeight(float2(0.0f, texCoords1.y)); return lerp(height, height2, 0.5f); }else if(texCoords1.x == 0.0f){ float height2 = GetHeight(float2(1.0f, texCoords1.y)); return lerp(height, height2, 0.5f); }else return height; }

11. Обработка на GPU

Давайте перенесем обработку секторов на GPU. У нас будет два Compute шейдера - первый выполнит отсечение по пирамиде видимости и определит уровень детализации, второй получит граничные коэффициенты тесселяции для устранения трещин. Разделение на два этапа нужно потому, что как и в случае с CPU, мы не можем коректно определить соседей для секторов до тех пор, пока не произведем отсечение. Так как оба шейдера будут использовать данные уровней детализации и работать с секторами, я ввел две общих структуры: Sector и Lod

Struct Sector { float3 vec1, vec2; float3 startPos; float3 normCenter; int adjacency; float borderTessFactor; int lod; }; struct Lod { RangeF dotRange; float tessFactor; float padding; float4 color; };
Мы будем использовать три основных буфера - входной(содержит изначальную информацию о секторах), промежуточный(в нем находятся данные секторов, полученных в результате работы первого этапа) и итоговый(Будет передаваться на отрисовку). Данные входного буфера не будут меняться, поэтому в поле Usage структуры D3D11_BUFFER_DESC разумно использовать значение D3D11_USAGE_IMMUTABLE Мы просто запишем в него данные всех секторов с единственной разницей, что для данных смежности мы будем использовать индексы секторов, а не указатели на них. Для индекса уровня детализации и граничных коэффициентов тесселяции установим нулевые значения:

Static const size_t sectorSize = sizeof(Vector3) + //vec1 sizeof(Vector3) + //vec2 sizeof(Point3F) + //normCenter sizeof(Point3F) + //startPos sizeof(Point4) + //adjacency sizeof(Vector4) + //borderTessFactor sizeof(int32_t);//lod size_t sectorsDataSize = sectors.GetSectors().size() * sectorSize; std::vector sectorsData(sectorsDataSize); char* ptr = §orsData; const Sector* firstPtr = §ors.GetSectors(); for(const Sector &sec: sectors){ Utils::AddToStream(ptr, sec.GetVec1()); Utils::AddToStream(ptr, sec.GetVec2()); Utils::AddToStream(ptr, sec.GetStartPos()); Utils::AddToStream(ptr, sec.GetNormCenter()); Utils::AddToStream(ptr, sec.GetAdjacency() - firstPtr); Utils::AddToStream(ptr, sec.GetAdjacency() - firstPtr); Utils::AddToStream(ptr, sec.GetAdjacency() - firstPtr); Utils::AddToStream(ptr, Vector4()); Utils::AddToStream(ptr, 0); } inputData = Utils::DirectX::CreateBuffer(§orsData,//Raw data sectorsDataSize,//Buffer size D3D11_BIND_SHADER_RESOURCE,//bind flags D3D11_USAGE_IMMUTABLE,//usage 0,//CPU access flags D3D11_RESOURCE_MISC_BUFFER_STRUCTURED,//misc flags sectorSize);//structure byte stride
Теперь пара слов о промежуточном буфере. Он будет играть две роли - выходного для первого шейдера и входного для второго, поэтому мы укажем в поле BindFlags значение D3D11_BIND_UNORDERED_ACCESS | D3D11_BIND_SHADER_RESOURCE. Также создадим для него два отображения - UnorderedAccessView, которое позволит шейдеру записывать в него результат работы и ShaderResourceView, с помощью которого мы будем использовать буфер как входной. Размер его будет таким же, как у ранее созданного входного буфера

UINT miscFlags = D3D11_BIND_UNORDERED_ACCESS | D3D11_BIND_SHADER_RESOURCE; intermediateData = Utils::DirectX::CreateBuffer(sectors.GetSectors().size() * sectorSize,//Buffer size miscFlags, D3D11_USAGE_DEFAULT,//usage 0,//CPU access flags D3D11_RESOURCE_MISC_BUFFER_STRUCTURED,//misc flags sectorSize);//structure byte stride intermediateUAW = Utils::DirectX::CreateUnorderedAccessView(intermediateData, D3D11_BUFFER_UAV{0, sectors.GetSectors().size(), 0}); intermediateSRV = Utils::DirectX::CreateShaderResourceView(intermediateData, D3D11_BUFFEREX_SRV{0, sectors.GetSectors().size(), 0});
Далее я приведу основную функцию первого шейдера:

StructuredBuffer inputData: register(t0); RWStructuredBuffer outputData: register(u0); void Process(int3 TId: SV_DispatchThreadID) { int ind = TId.x; Sector sector = inputData; float dotVal = dot(toWorldPos, sector.normCenter); if(dotVal < dotRange.minVal || dotVal > dotRange.maxVal){ outputData = sector; return; } if(!IsVisible(sector.normCenter)){ outputData = sector; return; } for(int l = 0; l < 4; l++){ Lod lod = lods[l]; if(dotVal >= lod.dotRange.minVal && dotVal <= lod.dotRange.maxVal) sector.lod = l + 1; } outputData = sector; }
После вычисления скалярного произведения мы проверяем, находится ли сектор в потенциально видимой области. Далее мы уточняем факт его видимости с помощью вызова IsVisible(), который идентичен вызову Frustum::TestSphere(), показанному ранее. Работа функции зависит от переменных worldView, sphereRadius, frustumPlanesPosV и frustumPlanesNormalsV, значения для которых нужно передать в шейдер заранее. Далее мы определяем уровень детализации. Обратите внимание, что индекс уровня мы указываем от еденицы - это нужно для того, чтобы на втором этапе отбросить те секторы, уровень детализации которых равен нулю.

Теперь нам нужно подготовить буферы для второго этапа. Мы хотим использовать буфер, как выходной у Compute шейдера и входной для тесселятора - для этого нам нужно указать в поле BindFlags значение D3D11_BIND_UNORDERED_ACCESS | D3D11_BIND_VERTEX_BUFFER. Нам придется работать с данными буфера напрямую, поэтому укажем в поле MiscFlags значение D3D11_RESOURCE_MISC_BUFFER_ALLOW_RAW_VIEWS Для отображения такого буфера мы будем использовать значение DXGI_FORMAT_R32_TYPELESS в поле Flags, а в поле NumElements укажем всего буфера, деленный на четыре

Size_t instancesByteSize = instanceByteSize * sectors.GetSectors().size(); outputData = Utils::DirectX::CreateBuffer(instancesByteSize, D3D11_BIND_UNORDERED_ACCESS | D3D11_BIND_VERTEX_BUFFER, D3D11_USAGE_DEFAULT, 0, D3D11_RESOURCE_MISC_BUFFER_ALLOW_RAW_VIEWS, 0); D3D11_BUFFER_UAV uavParams = {0, instancesByteSize / 4, D3D11_BUFFER_UAV_FLAG_RAW}; outputUAW = Utils::DirectX::CreateUnorderedAccessView(outputData, uavParams, DXGI_FORMAT_R32_TYPELESS);
Нам также потребуется счетчик. С его помощью мы осуществим адресацию памяти в шейдере и используем его конечное значение в аргументе instanceCount вызова DrawIndexedInstanced(). Счетчик я реализовал в виде буфера размером 16 байтов. Также при создании отображения в поле Flags поля D3D11_BUFFER_UAV я использовал значение D3D11_BUFFER_UAV_FLAG_COUNTER

Counter = Utils::DirectX::CreateBuffer(sizeof(UINT), D3D11_BIND_UNORDERED_ACCESS, D3D11_USAGE_DEFAULT, 0, D3D11_RESOURCE_MISC_BUFFER_STRUCTURED, 4); D3D11_BUFFER_UAV uavParams = {0, 1, D3D11_BUFFER_UAV_FLAG_COUNTER}; counterUAW = Utils::DirectX::CreateUnorderedAccessView(counter, uavParams);
Настало время привести код второго шейдера

StructuredBuffer inputData: register(t0); RWByteAddressBuffer outputData: register(u0); RWStructuredBuffer counter: register(u1); void Process(int3 TId: SV_DispatchThreadID) { int ind = TId.x; Sector sector = inputData; if(sector.lod != 0){ sector.borderTessFactor = GetNeibTessFactor(sector, 0); //Bottom sector.borderTessFactor = GetNeibTessFactor(sector, 1); //Left sector.borderTessFactor = GetNeibTessFactor(sector, 2); //Top sector.borderTessFactor = GetNeibTessFactor(sector, 3); //Right int c = counter.IncrementCounter(); int dataSize = 56; outputData.Store(c * dataSize + 0, asuint(sector.startPos.x)); outputData.Store(c * dataSize + 4, asuint(sector.startPos.y)); outputData.Store(c * dataSize + 8, asuint(sector.startPos.z)); outputData.Store(c * dataSize + 12, asuint(sector.vec1.x)); outputData.Store(c * dataSize + 16, asuint(sector.vec1.y)); outputData.Store(c * dataSize + 20, asuint(sector.vec1.z)); outputData.Store(c * dataSize + 24, asuint(sector.vec2.x)); outputData.Store(c * dataSize + 28, asuint(sector.vec2.y)); outputData.Store(c * dataSize + 32, asuint(sector.vec2.z)); outputData.Store(c * dataSize + 36, asuint(sector.borderTessFactor)); outputData.Store(c * dataSize + 40, asuint(sector.borderTessFactor)); outputData.Store(c * dataSize + 44, asuint(sector.borderTessFactor)); outputData.Store(c * dataSize + 48, asuint(sector.borderTessFactor)); outputData.Store(c * dataSize + 52, asuint(sector.lod)); } }
Код функции GetNeibTessFactor() практически идентичен ее CPU аналогу. Единственное различие в том, что мы используем индексы соседей а не указатели на них. Буфер outputData имеет тип RWByteAddressBuffer, поэтому для работы с ним мы используем метод Store(in uint address, in uint value). Значение переменной dataSize равно размеру данных вершины с классом D3D11_INPUT_PER_INSTANCE_DATA, Описание вершины можно посмотреть в разделе 10. В общем это традиционная для C/С++ работа с указателями. После выполнения двух шейдеров мы можем использовать outputData как InstanceBuffer. Процесс отрисовки выглядит так

Utils::DirectX::SetPrimitiveStream({vb, outputData}, ib, {vertexSize, instanceByteSize}, D3D11_PRIMITIVE_TOPOLOGY_3_CONTROL_POINT_PATCHLIST); DeviceKeeper::GetDeviceContext()->CopyStructureCount(indirectArgs, 4, counterUAW); Shaders::Apply(terrainShaders, [&]() { DeviceKeeper::GetDeviceContext()->DrawIndexedInstancedIndirect(indirectArgs, 0); }); Utils::DirectX::SetPrimitiveStream({nullptr, nullptr}, nullptr, {0, 0});
За более подробной информацией о методах DrawIndexedInstancedIndirect() и CopyStructureCount() обращайтесь к приложению 2

12. Камера

Наверняка вам известно, как помтроить модель простой FPS(First Person Shooter) камеры. Я действую по такому сценарию:
  • 1. Из двух углов получаю вектор направления
  • 2. с помошью вектора направления и вектора (0, 1, 0) получаю базис
  • 3. согласно вектору направления и вактору вправо, полученному в п.2 изменяю позицию камеры

В нашем случае ситуация несколько осложняется - во первых мы должны двигаться относительно центра планеты, во вторых, при построении базиса вместо вектора (0, 1, 0) мы должны использовать нормаль сферы в точке, которой сейчас находимся. Чтобы достичь желаемых результатов, я буду использовать два базиса. Согласно первому будет изменяться позиция, второй будет описывать ориентацию камеры. Базисы взаимозависимы, но первым я вычисляю базис позиции, поэтому начну с него. Предположим, что у нас есть начальный базис позиции (pDir, pUp, pRight) и вектор направления vDir, по которому мы хотим продвинуться на некоторое расстояние. Прежде всего нам надо вычислить проекции vDir на pDir и pRight. Сложив их, мы получим обновленный вектор направления (рис.21).


Рис.21 Наглядный процесс получения projDir

Где P это позиция камеры, mF и mS - коэффициенты, означающе на сколько нам нужно продвинуться вперед либо вбок.

Мы не можем использовать PN как новую позицию камеры, потому что PN не принадлежит сфере. Вместо этого мы находим нормаль сферы в точке PN, и эта нормаль будет являться новым значением вектора вверх. Теперь мы можем сформировать обновленный базис

Vector3 nUp = Vector3::Normalize(PN - spherePos); Vector3 nDir = projDir Vector3 nRight = Vector3::Normalize(Vector3::Cross(pUp, pDir))
где spherePos - центр сферы.

Нам надо сделать так, чтобы каждый из его векторов был ортогональным по отношению к двум другим. Согласно свойству векторного произведения nRight удовлетворяет этому условию. Осталось добиться тогоже для nUp и nDir. Для этого спроецируем nDir на nUp и отнимим получившийся вектор от nDir (рис.22)


Рис.22 Ортогонализация nDir по отношению к nUp

Мы могли бы проделать тоже самое с nUp, но тогда он бы изменил свое направление, что в нашем случае неприемлимо. Теперь нормализуем nDir и получим обновленный ортонормированный базис направления.

Вторым ключевым этапом является построение базиса ориентации. Основную сложность представляет получение вектора направления. наиболее подходящее решение - перевести точку с полярным углом a, азимутным углом b и расстоянием от начала координат равным единице из сферических координат в декартовые. Только если мы осуществим такой переход для точки с полярным углом равным нулю, то получим вектор, смотрящий вверх. Нам это не совсем подходит, так как мы будем инкрементировать углы и предполагаем, что такой вектор будет смотреть вперед. Банальное смещение угла на 90 градусов решит проблему, но более элегантно будет воспользоваться правилом смещения угла, которое гласит, что

Так и сделаем. В итоге у нас выходит следующее

Где a - полярный угол, b - азимутный угол.

Этот результат нам не совсем подходит - нам нужно построить вектор направления относительно базиса позиции. Давайте перепишем уравнение для vDir:

Все, как у космонавтов - по этому направлению столько, по тому столько. Теперь должно быть очевидно, что если мы заменим векторы стандартного базиса на pDir, pUp и pRight, то получим нужное нам направление. Вот так

Можно представить тоже самое в виде матричного умножения

Вектор vUp изначально будет равен pUp. Вычислив векторное произведение vUp и vDir, мы получим vRight

Теперь мы сделаем так, что бы vUp был ортогональным по отношению к остальным векторам базиса. Принцип тот же, что и при работе с nDir

С базисами разобрались - осталось вычислить позицию камеры. Это делается так

Где spherePos - центр сферы, sphereRadius - радиус сферы и height - высота над поверхностью сферы. Приведу код работы описанной камеры:

Float moveFactor = 0.0f, sideFactor = 0.0f, heightFactor = 0.0f; DirectInput::GetInsance()->ProcessKeyboardDown({ {DIK_W, [&](){moveFactor = 1.0f;}}, {DIK_S, [&](){moveFactor = -1.0f;}}, {DIK_D, [&](){sideFactor = 1.0f;}}, {DIK_A, [&](){sideFactor = -1.0f;}}, {DIK_Q, [&](){heightFactor = 1.0f;}}, {DIK_E, [&](){heightFactor = -1.0f;}} }); if(moveFactor != 0.0f || sideFactor != 0.0f){ Vector3 newDir = Vector3::Normalize(pDir * Vector3::Dot(pDir, vDir) + pRight * Vector3::Dot(pRight, vDir)); Point3F newPos = pos + (newDir * moveFactor + pRight * sideFactor) * Tf * speed; pDir = newDir; pUp = Vector3::Normalize(newPos - spherePos); pRight = Vector3::Normalize(Vector3::Cross(pUp, pDir)); pDir = Vector3::Normalize(pDir - pUp * Vector3::Dot(pUp, pDir)); pos = spherePos + pUp * (sphereRadius + height); angles.x = 0.0f; } if(heightFactor != 0.0f){ height = Math::Saturate(height + heightFactor * Tf * speed, heightRange); pos = spherePos + pUp * (sphereRadius + height); } DirectInput::MouseState mState = DirectInput::GetInsance()->GetMouseDelta(); if(mState.x != 0 || mState.y != 0 || moveFactor != 0.0f || sideFactor != 0.0f){ if(mState.x != 0) angles.x = angles.x + mState.x / 80.0f; if(mState.y != 0) angles.y = Math::Saturate(angles.y + mState.y / 80.0f, RangeF(-Pi * 0.499f, Pi * 0.499f)); vDir = Vector3::Normalize(pRight * sinf(angles.x) * cosf(angles.y) + pUp * -sinf(angles.y) + pDir * cosf(angles.x) * cosf(angles.y)); vUp = pUp; vRight = Vector3::Normalize(Vector3::Cross(vUp, vDir)); vUp = Vector3::Normalize(vUp - vDir * Vector3::Dot(vDir, vUp)); } viewMatrix = Matrix4x4::Inverse({{vRight, 0.0f}, {vUp, 0.0f}, {vDir, 0.0f}, {pos, 1.0f}});
Обратите внимание, что мы обнуляем angles.x после того, как обновили базис позиции. Это критически важно. Давайте представим, что мы одновременно изменяем угол обзора и перемещаемся по сфере. Сперва мы спроецируем вектор направления на pDir и pRight, получим смещение (newPos) и на его основе обновим базис позиции. Также сработает второе условие, и мы начнем обновлять базис ориентации. Но так как pDir и pRight уже был изменены в зависимости от vDir, то без сброса азимутного угла (angles.x) поворот будет более «крутым»

Заключение

Я благодарю читателя за проявленный интерес к статье. Надеюсь, что информация, в ней изложенная, была ему доступна, интересна и полезна. Предложения и замечания можете присылать мне по почте [email protected] или оставлять в виде комментариев.

Желаю вам успеха!

Приложение 1

в поле InstanceDataStepRate содержится информация о том, сколько раз рисовать данные D3D11_INPUT_PER_VERTEX_DATA для одного элемента D3D11_INPUT_PER_INSTANCE_DATA. В нашем примере все просто - один к одному. «Но зачем нам рисовать одно и тоже по несколько раз?» - спросите вы. Разумный вопрос. Армянское радио отвечает - предположим, у нас есть 99 шаров трех разных цветов. Мы можем описать вершину таким образом:

UINT colorsRate = 99 / 3; std::vector meta = { {"POSITION", 0, DXGI_FORMAT_R32G32B32_FLOAT, 0, 0, D3D11_INPUT_PER_VERTEX_DATA, 0}, {"NORMAL", 0, DXGI_FORMAT_R32G32B32_FLOAT, 0, 12, D3D11_INPUT_PER_VERTEX_DATA, 0}, {"TEXCOORD", 0, DXGI_FORMAT_R32G32_FLOAT, 0, 24, D3D11_INPUT_PER_VERTEX_DATA, 0}, {"WORLD", 0, DXGI_FORMAT_R32G32B32A32_FLOAT, 1, 0, D3D11_INPUT_PER_INSTANCE_DATA, 1}, {"WORLD", 1, DXGI_FORMAT_R32G32B32A32_FLOAT, 1, 16, D3D11_INPUT_PER_INSTANCE_DATA, 1}, {"WORLD", 2, DXGI_FORMAT_R32G32B32A32_FLOAT, 1, 32, D3D11_INPUT_PER_INSTANCE_DATA, 1}, {"WORLD", 3, DXGI_FORMAT_R32G32B32A32_FLOAT, 1, 48, D3D11_INPUT_PER_INSTANCE_DATA, 1}, {"COLOR", 0, DXGI_FORMAT_R32G32B32A32_FLOAT, 2, 0, D3D11_INPUT_PER_INSTANCE_DATA, colorsRate}, };
Обратите внимание, что вершина собирается из трех источников, причем данные последнего обновляются раз в 33 «инстанса». В итоге мы получим 33 инстанса первого цвета, еще 33 - второго и т.д. Теперь создадим буферы. Причем, так как цвета не будут меняться, буфер с цветами можем создать c флагом D3D11_USAGE_IMMUTABLE. Это значит, что после того как буфер будет инициализирован, только GPU будет иметь доступ к его данным, при чем только для чтения. Вот код создания буферов:

MatricesTb = Utils::DirectX::CreateBuffer(sizeof(Matrix4x4) * 99, D3D11_BIND_VERTEX_BUFFER, D3D11_USAGE_DYNAMIC, D3D11_CPU_ACCESS_WRITE); colorsTb = Utils::DirectX::CreateBuffer(colors, D3D11_BIND_VERTEX_BUFFER, D3D11_USAGE_IMMUTABLE, 0);
далее по надобности обновляем буфер с матрицами(я использую функции своей библиотеки - надеюсь, что все будет ясно)

Utils::DirectX::Map(matricesTb, [&](Matrix4x4 *Data) { //сначала записываем в буфер данные для шаров первого цвета //затем для второго и т.д. Обратите внимание, что нужное соответсвие //данных цветам нужно обеспечить на этапе формирования данных буфера });
Доступ к данным в шейдере можно реализовать также, как я описал ранее


Приложение 2

В отличие от DrawIndexedInstanced() вызов DrawIndexedInstancedIndirect() принимает в качестве аргумента буфер, который содержит всю информацию, которую вы используете для вызова DrawIndexedInstanced(). Причем создавать это буфер надо с флагом D3D11_RESOURCE_MISC_DRAWINDIRECT_ARGS. Вот пример создания буфера:

//indicesCnt - кол-во индексов, которое мы хотим отобразить //instancesCnt - кол-во "инстансев", которое мы хотим отобразить std::vector args = { indicesCnt, //IndexCountPerInstance instancesCnt,//InstanceCount 0,//StartIndexLocation 0,//BaseVertexLocation 0//StartInstanceLocation }; D3D11_BUFFER_DESC bd = {}; bd.Usage = D3D11_USAGE_DEFAULT; bd.ByteWidth = sizeof(UINT) * args.size(); bd.BindFlags = 0; bd.CPUAccessFlags = 0; bd.MiscFlags = D3D11_RESOURCE_MISC_DRAWINDIRECT_ARGS; bd.StructureByteStride = 0; ID3D11Buffer* buffer; D3D11_SUBRESOURCE_DATA initData = {}; initData.pSysMem = &args; HR(DeviceKeeper::GetDevice()->CreateBuffer(&bd, &initData, &buffer)); пример вызова DrawIndexedInstancedIndirect(): DeviceKeeper::GetDeviceContext()->DrawIndexedInstancedIndirect(indirectArgs, 0);
вторым аргументом мы передаем смещение в байтах от начала буфера, с которого нужно начинать читать данные. Как это можно использовать? Например, при реализации отсечения невидимой геометрии на GPU. В общем хронология такая - сперва в Compute шейдере мы заполняем AppendStructuredBuffer, который содержит данные видимой геометрии. Затем с помощью CopyStructureCount() мы устанавливаем значение количества «инстансев», которые хотим отбразить равным количеству записей в этом буфере и вызываем DrawIndexedInstancedIndirect()


Приложение 3

Давайте предположим, что значение координаты х равно результату функции X с аргументом a, а значение координаты z - результату функции Z с тем же аргументом:

Теперь нам нужно для каждой функции вычислить производную. По сути, производная функции в заданной точке равна скорости изменения значений функции именно в этой точке. Согласно правилам дифференцирования тригонометрических функций:

Что в итоге дает нам тот же результат:

Почему мы можем использовать значения скорости как компоненты вектора направления? Я понимаю это так. Представьте, что у нас есть векторная функция (для t >= 0):

Вычислим производную для координаты X

Теперь для Y

У нас получилось, что вектор скорости равен (2, 3), теперь найдем начальную точку

В итоге функцию P(t) мы можем выразить так:

Что простыми словами можно описать как «точка двигается от начала с координатами (3, 2) на t по направлению (2, 3)». Теперь давайте другой пример:

Снова вычислим производную для координаты X

И для координаты Y

Теперь вектор скорости меняется в зависимости от аргумента. В этому случае простыми словами ситуацию можно описать так: «Точка движется от начала с координатами (3, 2), и направление ее движения постоянно меняется».


Приложение 4

Давайте определим функцию F(H), которая будет принимать высоту в области и возвращать значение от 0 до 1, где F(Hmin) = 0 и F(Hmax) = 1. Решив систем уравнений

Я получил

В результате этого функция F приобретает вид

Теперь нам нужна функция, которая принимает коэффициент высоты от 0 до 1 и возвращает минимальное значение для скалярного произведения. Нам надо учесть, что чем ближе наблюдатель к поверхности - тем оно больше. Получается следующее уравнение:

Раскроем скобки

Упростим и получим

Теперь выразим D(F(H)) и получим

Теги:

  • directx11
  • terrain render
Добавить метки

Природно-ресурсный потенциал ландшафтов

Ландшафт согласно современному представлению выполняет средообразующие, ресурсосодержащие и ресурсовоспроизводящие функции. Природно-ресурсный потенциал ландшафта является мерой возможного выполнения им этих функций. Определив природно-ресурсный потенциал, можно оценить способность ландшафта удовлетворять потребности общества (сельскохозяйственные, водохозяйственные, промышленные и т.д.). Для чего выделяют частные природно-ресурсные потенциалы ландшафта: биотический, водный, минерально-ресурсный, строительный, рекреационный, природоохранный, самоочищения.

Природно-ресурсный потенциал - это не максимальный запас ресурсов, а только тот, который используется без разрушения структуры ландшафта. Изъятие из геосистемы вещества и энергии возможно столько, сколько не приведет к нарушению способности саморегулирования и самовосстановления.

Биотический потенциал характеризует способность ландшафта продуцировать биомассу. Мерой биологического потенциала геосистем считается величина ежегодной биологической продукции. Биотический потенциал поддерживает почвообразование или восстанавливает плодородие почвы. Предел биологического потенциала определяет допустимую нагрузку на геосистему. Вмешательство человека в биологический круговорот геосистем снижает потенциальные биологические ресурсы и плодородие почв.

Водный потенциал выражается в способности ландшафта использовать получаемую воду не только растительностью, но и образовывать относительно замкнутый круговорот воды, пригодный для нужд человека. Водный потенциал и свойства ландшафта влияют на биологический круговорот, почвенное плодородие, распределение составляющих водного баланса. Границы между внутриландшафтными геосистемами одновременно являются границами территорий с характерным водным балансом.

Минерально-ресурсным потенциалом ландшафта считают накопленные в течение геологических периодов отдельные вещества, строительные материалы, минералы, энергоносители, которые используют для нужд общества. Такие ресурсы в ходе геологических циклов могут быть возобновимыми (леса) и невозобновимыми (несоизмеримы с этапами развития человеческого общества и скоростью их расхода).

Строительный потенциал предусматривает использование природных условий ландшафта для размещения строящегося объекта и выполнения им заданных функций.

Рекреационный потенциал - совокупность природных условий ландшафта, положительно влияющих на человеческий организм. Выделяют рекреационные ресурсы и рекреационные ландшафты. Рекреационные ресурсы используют для отдыха, лечения, туризма, а рекреационные ландшафты выполняют рекреационные функции (зеленые зоны, лесопарки, курорты, живописные места и т.д.).

Природоохранный потенциал обеспечивает сбережение биологического разнообразия, устойчивость и восстановление геосистем.

Потенциал самоочищения определяет способность ландшафта разлагать, выносить загрязняющие вещества и устранять их вредное воздействие.

Ландшафт - многофункциональное образование, т. е. пригоден для выполнения разного вида деятельности, но выбор исполняемых функций должен соответствовать его природным свойствам, ресурсному потенциалу.

Измененные ландшафты

Воздействие на любой компонент ландшафта по цепочке вертикальных связей передастся на другие компоненты, а по горизонтальным связям - на другие геосистемы. Воздействия прямо или косвенно изменяют многие природные процессы: теплового баланса, влагооборота, биологического и геохимического круговорота, перемещения материала.

Так, изменения литогенной основы могут быть связаны с прямым или косвенным воздействием человека: добыча полезных ископаемых, земляные работы. Образуются карьеры, выемки, отвалы пустой породы, терриконы и другие техногенные формы рельефа, которые способствуют обвалам, осыпям, оползням, размывам, развеиванию, проседаниям, провалам. Образовавшиеся формы рельефа формируют новые природные комплексы, перемещение пород нарушает естественный режим поверхностных, почвенных, грунтовых вод, возможно образование поверхностных водоемов, заболачивание территории. Сведение традиционного растительного покрова, распашка земель, выпас скота приводят к эрозии и смыву земель, образуются вторичные формы рельефа (овраги, балки, промоины и т. д.). Ежегодно эрозия и дефляция выносят из ландшафтов суши миллиарды тонн гумусовых частиц. Эти процессы, как правило, необратимы.

Изменения условий поверхностного, внутрипочвенного, грунтового стока оказывают влияние на влагооборот ландшафта. Воздействуя на физические факторы режимов стока рек, искусственное регулирование стока и русл рек за многолетний период изменяет водный баланс водосбора. Преобразование составляющих водного баланса на водосборе изменяет функционирование всех сопряженных с ним геосистем. Осушение, орошение, агротехнические мероприятия, застройка территорий, искусственное покрытие, изменение инфильтрационной и фильтрационной способности почв, условий поверхностного стока, запасов влаги и других факторов изменяют водный баланс и влагооборот ландшафта.

Замещение естественных биоценозов искусственными снижает общую биологическую продуктивность, обедняет почвы, снижает интенсивность биологического круговорота веществ. В тундре, лесах, степях, пустыне сведение растительного покрова сопровождается разрушением почвенной структуры, изменением условий почвообразования, истощением, смывом и развеиванием почв. Культурные растения ежегодно выносят из почвы сотни миллионов тонн азота, фосфора, калия, кальция, зольных элементов. Так, за счет получения урожая почвы со средним содержанием минеральных веществ могут быть полностью истощены за 15...50 лет. С полей с эродированными почвами азота, фосфора и калия смывается в 100 раз больше, чем вносится с удобрениями. Внесение удобрений не восполняет всех потерь, так как до 40...50 % питательных веществ, вносимых в почву, выносится с полей и вовлекается в неконтролируемую миграцию. Пестициды через питательные цепи, накапливаясь в тканях организмов, распространяются от низших звеньев цепи к высшим.

В процессе хозяйственной деятельности человека в геохимический круговоротвовлекается много соединений, самостоятельно не существующих в природе. Большая часть их - это отходы производства, использованные изделия, результат хозяйственной деятельности: удобрения, гербициды, пестициды, отбросы и др. В атмосферу попадают газы (углекислый газ, окись углерода) от сжигания на промышленных предприятиях топлива, от двигателей внутреннего сгорания (оксиды углерода, сернистый ангидрид) при сжигании нефти и угля (окислы азота, углеводороды). Твердые продукты сгорания топлива (копоть, сажа), пыль, радиоактивные выбросы распространяются на тысячи километров, попадают в почву, поверхностные и грунтовые воды, в питательные цепи. Со сточными водами распространяются кислоты, фенолы, нефтепродукты, хозяйственные и бытовые выбросы. Их источниками являются промышленные и бытовые свалки отходов (с токсичными веществами), животноводческие фермы, сельскохозяйственные поля, загрязненные удобрениями и ядохимикатами. Загрязнения распространяются с талыми водами и жидкими осадками, попадая в каналы, реки, озера и моря; необратимо загрязняют Мировой океан. Накопление или удаление элементов, участвующих в геохимическом круговороте в геосистемах, зависит от климатических условий ландшафта. Растительность в геохимическом круговороте может играть роль буфера или захватывающего концентратора.

Воздействие на ландшафт хозяйственной деятельности человека

Хозяйственная деятельность человека приводит к непреднамеренному изменению теплового баланса. Сюда относятся: поступление тепла в атмосферу при сжигании топлива, парниковый эффект при увеличении концентрации углекислого газа в атмосфере, повышение содержания аэрозолей в атмосфере, изменение отражательных характеристик деятельной поверхности и т. п. Перечисленные непреднамеренные воздействия вызывают нагрев атмосферы и тем самым приводят к необратимым изменениям в природе.

Измененные геосистемы с позиций природопользования можно классифицировать: на преднамеренно или непреднамеренно измененные; сельскохозяйственные, лесохозяйственные, промышленные, городские, рекреационные, заповедные, средозащитные в зависимости от выполняемых социально-экономических функций; слабоизмененные, измененные, сильноизмененные по сравнению с исходным состоянием; культурные, акультурные по последствиям изменения; системы с преобладанием процесса саморегуляции и с преобладанием управляющего воздействия со стороны человека в зависимости от соотношения процессов саморегуляции геосистем и управления.

По степени изменения ландшафты подразделяют: на условно неизмененные, которые не подвергали непосредственному хозяйственному использованию и воздействию. В этих ландшафтах можно обнаружить лишь слабые следы косвенного воздействия, например осаждение техногенных выбросов из атмосферы в нетронутой тайге, в высокогорьях, в Арктике, Антарктике; слабоизмененные, подвергающиеся преимущественно экстенсивному хозяйственному воздействию (охота, рыбная ловля, выборочная рубка леса), которое частично затронуло отдельные «вторичные» компоненты ландшафта (растительный покров, фауна), но основные природные связи при этом не нарушены и изменения носят обратимый характер. К таким ландшафтам относят: тундровые, таежные, пустынные, экваториальные; среднеизмененные ландшафты, в которых необратимая трансформация затронула некоторые компоненты, особенно растительный и почвенный покров (сводка леса, широкомасштабная распашка), в результате чего изменяется структура водного и частично теплового баланса; сильноизмененные (нарушенные) ландшафты, которые подверглись интенсивному воздействию, затронувшему почти все компоненты (растительность, почвы, воды и даже твердые массы твердой земной коры), что привело к существенному нарушению структуры, часто необратимому и неблагоприятному с точки зрения интересов общества. Это главным образом южно-таежные, лесостепные, степные, сухостепные ландшафты, в которых наблюдаются обезлесивание, эрозия, засоление, подтопление, загрязнение атмосферы, вод и почв; широкомасштабная мелиорация (орошение, осушение) также сильно изменяет ландшафты; культурные ландшафты, в которых структура рационально изменена и оптимизирована на научной основе, с учетом вышеизложенных принципов, в интересах общества и природы - ландшафты будущего.

Так задумано природой, что поверхность нашей планеты имеет разный рельеф по всей своей площади. Человек в стремлении к комфорту на обжитых территориях старается создать условия для максимального удобства своего проживания. Необходимо правильно провести планировку своего участка.

Геодезическая съемка

План вертикальной планировки местности включает в себя непосредственное проведение самой геодезической съемки, расчистку под застройку и начало самой работы.

Если вы намерены справиться с этим своими силами, необходимо учесть несколько факторов:

  • тип и состояние почвы;
  • степень залегания грунтовых вод;
  • возможность пучения земли при низких температурах.


Эти данные нужно знать для дальнейшего возведения фундамента, а также при планировании колодцев и подвалов. Для проведения данной работы необходимо наличие специальных приборов (например, гидравлического уровня).

Возведение строения

При постройке объекта необходимо выбрать его расположение, с точностью определить высоту покрытия пола нижнего этажа, выяснить степень проседания грунта. С помощью планировки решается ряд вопросов. Например, фундамент должен быть выше уровня грунтовых вод. Постройки над фундаментом следует располагать немного выше уровня снежных осадков (в соответствии с климатическими условиями). При строительстве жилища лучше выбирать участок, находящийся на более высоком уровне (из всей доступной территории). Возведение объекта начинается после тщательно выбранного места под строительства. Часто точкой для начала работ служит рядом стоящий дом или дорога.



После определения нужной точки приступают к расчету углубленности объекта. Существует несколько типов возведения дома на участке под углом. Обычно происходит изменение ландшафта, при котором все неровности на поверхности сглаживают. Данный проект подразумевает, что строительство будет осуществляться на ровной площадке. Дом, возводимый на местности с обычным уклоном, нуждается в переработке цокольной стороны. В данном случае жилище будет иметь некоторые особенности и плавно вливаться в ландшафт.


Разделяют ландшафт по следующим признакам:

  • равнинный уклон – не более 3%;
  • малый уклон – до 8%;
  • средний уклон – до 20%;
  • крутой уклон – свыше 20%.


Перемена рельефа

При вертикальной планировке местности появляется ряд преимуществ (например, создание системы дренажей, ряда дорожек для прогулки, которые располагают под углом). Становится возможным создание системы слива дождевых потоков при определенном склоне в нижнюю часть участка. Почти всегда владельцам неровных участков земли довольно сложно осуществить планировку. Для решения таких задач существуют специалисты, которые занимаются планировкой и изменением ландшафта земли с вертикальной наклонностью.



Склон с углом в метр

В такой ситуации необходимо составить проект подвала. На цокольном этаже (в стенах нижнего этажа) нужно установить дренаж. Примеров перепланировки такой площади существует множество, однако не каждый владелец в силу своих сил и возможностей может с большой уверенностью взяться за осуществление постройки жилья в столь нестандартных условиях. Поэтому рекомендуется обращаться к специалистам для точной диагностики местности, состава ее грунта, глубины залегания грунтовых вод и структуры почвы. Сделать схему земельного участка помогут профессионалы своего дела.



Модель вертикального планирования

При рассмотрении строения с уклоном в южную сторону рекомендуется максимально близко располагать дом к восточной стороне. Нижняя часть служит для возведения хозяйственных построек (ввиду своей малой пригодности для обустройства в виде зоны комфортного отдыха). Желательно на верхней части площади заняться облагораживанием местности, посадив несколько полос цветочных клумб, рассадить по периметру всей зоны отдыха несколько декоративных деревьев, сместив их к южной стороне.

Планирование сети дренажей должно разумно согласоваться с рельефом данной местности и иметь слив в нижнюю часть участка. Если вы являетесь приверженцем восточной философии фэн-шуй, надо позаботиться о том, чтобы двери были расположены к северу, либо смотрели на восток.



Планировка дома

Главное строение должно располагаться примерно в 10-ти метрах от границы вашего участка. От дома соседей вас должно отделять минимум 3 метра. Строения должны стоять под прямым углом по отношению друг к другу. Все замеры можно делать самостоятельно (без имения каких-либо навыков в строительстве или опыта в проектировании). Для проведения замеров расстояния достаточно рулетки.


Хозяйственные строения

Хозяйственные постройки возводят одновременно с жилищем, хотя лучше всего делать это уже после окончания основной постройки. Хозяйственные постройки следует возводить на определенном расстоянии от построек соседей. Специалисты дают рекомендации, что лучше всего амбары, сараи и уборные строить в 3-х метрах от построек соседей.

При строительстве должны быть соблюдены те же правила, что и при строительстве дома. Следуя рекомендациям специалистов и соблюдению правил строительства объектов на земле с большим уклоном, достигается прочность, долговечность жилья и других построек (беседок, теплиц, амбаров, погребов, самодельных прудов для украшения участка, бани, сауны).



На площади до 5 соток невозможно осуществить грандиозные проекты. На таком участке возможно построить дом, уборную и баню. На площади в 10-11 соток можно добавить беседку, пруд и несколько клумб. На площади от 15-ти соток и выше все будет ограничиваться лишь вашей фантазией.

Огромное пространство будет давать большую мотивацию для застройщика. Важно помнить, что все планы постройки грандиозных зданий должны уместиться в ГОСТ.


Все должно быть заранее спланировано, документы оформлены, материал закуплен, должны быть наняты специалисты. Лишь потом со спокойной душой можно приниматься за дело и обустраивать любимый участок по своим вкусам и взглядам.

Заключение

Правильная планировка обеспечит вас хорошим, теплым и надежным жильем. При строительстве желательно обратиться к специалистам. Посоветуйтесь с ними, уточните все тонкости стройки: это обеспечит вашему дому долговечность, а также избавит от хлопот в будущем. Изменяя трудный рельеф, стоит помнить о том, что иногда такое положение дел может вам сыграть на руку.

Каждая ситуация должна иметь индивидуальный подход к решению поставленной задачи, ведь любая поверхность складывается из разных плоскостей. Это сказывается на разном составе почвы на довольно маленьких участках, наложение разных пластов земли вызывает криволинейность периметра. Все это делает достаточно трудной работу по облагораживанию данного участка. Специалисты при строительстве объектов на таких местностях изучают досконально рельеф поверхности, метеорологические данные региона, узнают глубину залежей грунтовых вод, вероятность проседания почвы под тяжестью постройки и много других ключевых факторов.

Чаще строительство на такой поверхности происходит в зонах отдыха или курортах. Вид из окна строения на высоте не оставит равнодушным никого, однако главным фактором остается благоустройство местности, оснащение его всеми благами цивилизации, без которых сложно представить нашу повседневную жизнь. К недостатку такой местности можно отнести то, что растраты бюджета на благоустройство будут значительно выше, чем для участка с ровной местностью. Поэтому для реализации ваших идей придется раскошелиться на круглую сумму. Положительная сторона вытекает из его недостатка – неровная поверхность создает ощущение экзотики, что не может не привлекать к себе внимание. При правильном подходе к планировке нестандартной поверхности участок с небольшой площадью можно превратить в райский уголок.



О тонкостях вертикальной планировки участка смотрите в следующем видео.