Научная статья на тему 'Моделирование разброса параметров транзисторов в КМОП СБИС'

Моделирование разброса параметров транзисторов в КМОП СБИС Текст научной статьи по специальности «Математика»

CC BY
335
57
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук

Аннотация научной статьи по математике, автор научной работы — Денисенко Виктор

В статье подробно рассматривается метод главных компонентов при моделировании разброса параметров транзисторов в КМОП СБИС.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Моделирование разброса параметров транзисторов в КМОП СБИС»

Компоненты и технологии, № 9'2003

Продолжение. Начало в № 7'2003

Моделирование разброса параметров транзисторов

в КМОП СБИС

Виктор Денисенко, к.т.н.

victor@RLDA.ru,

www.RLDA.ru

3. Метод главных компонентов

Метод главных компонентов (Principal Component Analysis, PCA) позволяет сократить количество статистических переменных при сохранении максимально возможного количества статистической информации, содержащейся в исходных данных.

Для этого выполняется линейное преобразование пространства входных коррелированных переменных в новое пространство статистически независимых переменных, которые называются главными компонентами. Главные компоненты сортируются по величине дисперсии, затем отбираются первые несколько из них таким образом, что их суммарная дисперсия приблизительно равна сумме дисперсий всех главных компонентов. Это позволяет пренебречь остальными главными компонентами. Поэтому количество переменных, которые надо варьировать при статистическом моделировании, становится меньше. В литературе приводится пример, когда 50 исходных параметров модели BSIM3 были заменены всего 8 главными компонентами при сохранении 90% суммарной дисперсии [8]. В другом примере из 27 параметров модели МОП-транзистора Level 3 было отобрано только 6 параметров, которые обеспечили 81% суммарной дисперсии [27]. В работе [28] для 16 параметров модели BSIM было отобрано только 6 главных компонентов, в работе [29] были оставлены только 2-3 главных компонента взамен 15 параметров модели Level 3, которые сохраняют 75% дисперсии входных параметров.

Метод главных компонентов был предложен Пирсоном еще в 1901 году, однако для статистического моделирования ИС начал использоваться только в последние 10 лет в связи с проблемами, возникшими при переходе к нанометровой технологии.

Перед применением метода главных компонентов желательно проанализировать имеющиеся данные и чувствительность тока стока модели к изменению ее параметров. После такого анализа можно сократить набор параметров модели. Однако для аналоговых цепей, которые особенно чувствительны к разбросу параметров, этот подход может дать слишком грубый результат.

Поэтому основным методом, направленным на уменьшение количества статистических переменных, является метод главных компонентов (Principal Component Analysis — РСА).

Метод главных компонентов иногда путают с факторным анализом. Различие между ними состоит в том, что в методе главных компонентов переход к новым переменным осуществляется так, чтобы в преобразованном пространстве сохранялась максимальная часть суммарной дисперсии переменных, а в факторном анализе новые переменные находят из условия наилучшего воспроизведения ковариационной матрицы.

Рассмотрим суть метода главных компонентов на нереалистично простом, но очень наглядном примере. На рис. 3.1, а показана статистическая зависимость подвижности дырок от подвижности электронов для 0,6 мкм КМОП-технологии [14]. Переменные цор и цт являются статистически зависимыми, коэффициент корреляции равен г = 0,954, разброс подвижности электронов о(цоп) = 32 см2Б^1е^1

Компоненты и технологии, № 9'2003

сопоставим с разбросом подвижности дырок о(цор) = 13,5 см2Я1е^1. Можно заметить, что если ввести новую ортогональную систему координат (21, г2) таким образом, чтобы одна из координатных осей совпадала с линией среднеквадратической регрессии цор = 0,401х(^оп - 519)+183, (рис. 3.1, а),

то в новых координатах (рис. 3.1, б) переменные г1 и г2 становятся статистически независимыми. Коэффициент корреляции здесь равен нулю, а дисперсия после преобразования равна 11 0 =1,95 и и \ = 0,0462 .

Заметим, что дисперсия а2 составляет только 2,3% от суммарной дисперсии обеих переменных и теперь мы можем ею пренебречь, выполняя статистическое моделирование ИС с использованием только одной случайной переменной г1. При этом каждому значению случайной величины г1 будут соответствовать значения двух случайных величин цор и цоп, которые вычисляются путем обратного перехода от новых координат к старым.

В случае многих переменных х = (х1,х2,хр', где ' — знак транспонирования вектора, статистическая связь между ними отражается квадратной ковариационной матрицей С размером рхр, элементы которой являются ковариациями переменных Х{ и х, Сц = соу(х;, х). Преобразование координат, аналогичное вышеописанному, в многомерном случае выполняется линейным отображением пространства переменных х в пространство новых переменных г, которые называются главными компонентами:

гк = ак,1ХХ1 + ак,2ХХ2+--- +

р

+ <*к,рХХр

У=1

гк = а к х х,

(3.1)

(3.2)

Справедливость этого соотношения для матрицы а' можно доказать следующими преобразованиями:

О(а'хх) = М[(а'хх)(а'хх)]' =

= М[а'хххх'ха] = а'хМ[ххх']ха =

= а'хсоу(х)ха= а'хСха. (3.6)

Здесь использовано равенство

М[ахх]= ахМ[х], (3.7)

которое выводится с использованием свойств математического ожидания следующим образом:

М[ахх]=М

4,

7=1

АЛ

Г

М

где а'к — к-я строка (а'к1 а'к_2 ... а'кр) коэффициентов матрицы линейного отображения а'; к = 1, ..., р.

В качестве входных переменных х используют нормированные и центрированные значения параметров модели МОП-транзис-тора Р, то есть

Р1 -Ц/

х1=аГ, (3.3)

где и — математическое ожидание и среднеквадратическое отклонение параметра Р{.

Вектор ак в (3.2) требуется найти. Он должен быть выбран таким образом, чтобы дисперсия первого главного компонента В(г1) была наибольшей среди дисперсий всех (2^:

0(21) = тах(0(2к)} (3.4)

к

Математические выкладки, ведущие к нахождению ак, приводятся во многих источниках, посвященных методу главных компонентов; мы здесь будем следовать работе [30]. Используя определение (3.2), дисперсию первого главного компонента можно записать в виде

Д(21) = D(а'1хx) = а'!хСха! (3.5) --------------------www.finestreet.ru-

а1ха1,

(3.9)

Сха1- Аха1 = 0

(3.11)

Производная скалярной функции от векторного аргумента Ф(а1) по вектору а1 является вектором-столбцом, компоненты которого равны производным от функции по компонентам вектора а1 = (а11, а12, ..., а1р). Например,

=(2хх1,2хх2,-..,2хх^)=2хх.

Выражение (3.11) можно преобразовать к виду

(С - Ях!р)ха1 = 0,

(3.12)

=[(ахМ[х]^.]=ахМ[х]. (3.8)

Здесь для сокращения записи нижним индексом г внутри квадратных скобок помечен г-й элемент вектора-столбца, г = 1, ..., р.

Аналогично можно доказать, что

М[хха] = М[х]ха.

В вышеприведенных выкладках а может быть как матрицей, так и вектором.

Вернемся теперь к соотношению (3.5). Нам необходимо найти такие коэффициенты а, в уравнении (3.1), при которых дисперсия Д(г1) (3.5) становится максимальной. Это будет соответствовать настройке первой новой координатной оси 21 вдоль направления максимального разброса компонентов вектора х.

Однако максимум выражения (3.5) не существует, поскольку при неограниченном увеличении компонентов вектора а1 также неограниченно возрастает и а'1хСха1. Поэтому необходимо ввести ограничение на длину вектора а^ выбрав ее равной, например, единице:

где 1р — единичная матрица размером (рхр). Однако из формы последнего уравнения следует, что Я равен собственному значению, а вектор а1 — собственному вектору матрицы С.

Поскольку уравнению (3.12) удовлетворяют р собственных векторов, соответствующих р собственным значениям, необходимо выбрать те из них, которые придают величине а'1хСха1 максимальное значение. Поскольку Сха1 = Яха1 (3.11), то

а^хСха! = а^хАха!: = Аха'1ха1 = А,

(3.13)

(то есть сумма квадратов компонентов вектора равна единице). Одновременно это соотношение упрощает обратный переход от главных компонентов к исходным переменным х. Чтобы найти максимум а'1хСха1 при варьировании компонентов вектора а1 и при ограничении на длину вектора а'1ха1 = 1, можно воспользоваться методом множителей Лагранжа для условной оптимизации, то есть искать максимум выражения

Ф(ах) = а^хСха! - Ях(а\ха! -1), (3.10)

где Я — множитель Лагранжа.

В точке максимума производная выражения (3.10) по вектору а1 равна нулю:

то есть для обеспечения максимальной дисперсии первого главного компонента В(21) = а'1хСха1 необходимо выбрать максимальное значение Я из р значений, удовлетворяющих соотношению (3.12); обозначим его Я1.

Итак, первый главный компонент равен 21 = а'1хх, где а1 — собственный вектор ковариационной матрицы С, соответствующий ее максимальному собственному значению Я1.

Найдем теперь второй главный компонент. Аналогично вышеизложенному, он будет равен г2 = а'2хх, а его дисперсия = Да'2хх) = а'2хСха2 должна быть наибольшей среди дисперсий оставшихся р - 1 главных компонентов. Следующим требованием ко второму главному компоненту является его нулевая ковариация соу(у) с первым главным компонентом (поскольку главные компоненты должны быть статистически независимы), то есть кроме максимума а'2хСха2 должно выполняться условие С0У(2[, 22) = 0, или соу(а'1хх, а'2хх) = 0. Из свойств ковариационной матрицы следует, что

соу(а\хх, а'2хх) = соу(а'2хх, а\хх) =

= а\хСха2 = а'2хСхах. (3.14)

Это равенство можно пояснить следующей цепочкой преобразований:

соу(а\хх, а'2хх) = М[а'хххх(а'2хх)'] = = М[а'1хххх'ха2] = а'1хМ[ххх']ха2 =

= а'1хСха2. (3.15)

Поскольку выше нами было использовано условие а'1ха1 = 1, которое означает ортогональность собственных векторов ковариаци-

или

Компоненты и технологии, № 9'2003

онной матрицы, то из (3.11) следует а'1хС = Я1ха'1; заметим также, что из (3.13) следует Сха1 = Я1ха1. Поэтому серию последовательных равенств (3.14) можно продолжить:

а'2хСха! = а^хЯ^а = Я1ха'1ха2 (3.16)

Таким образом, для выполнения требования статистической независимости первого и второго главных компонентов необходимо выполнить любое из условий

а'1хСха2 = 0, а'2хСха! = 0, а'1ха2 = 0

или а'2ха! = 0 (3.17)

Выбирая последнее из приведенных равенств, а также ограничение длины вектора а'2ха2 =1 и используя два множителя Лагранжа, Я и ф, получим критериальную функцию, которую требуется максимизировать, чтобы второй главный компонент был максимальным из оставшихся:

Ф(а2) = а'2хСха2-- Ях(а'2ха2 - 1) - фха'2ха!

(3.18)

а',хСха, = Я

(3.22)

Условие максимума можно получить, дифференцируя (3.18) по а2 и приравнивая полученную производную к нулю:

Сха2 - Яха2 - фха! = 0 (3.19)

Умножим последнее равенство на а'1 слева:

а'1хСха2 - Яха'1ха2 - фха\хаг = 0 (3.20)

Поскольку согласно (3.17) первые два слагаемых в этом равенстве равны нулю и а'1ха1 = 1, то должно выполняться равенство ф = 0. Следовательно, из (3.19) получим соотношение

Сха2 - Яха2 = 0, или (С - Ях1р)ха2 = 0 (3.21)

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Таким образом, Я здесь можно рассматривать как следующее собственное значение Я = Я2 ковариационной матрицы С с соответствующим ему вторым собственным вектором 02. Поскольку мы искали максимальное значение а'2хСха2, а из (3.21) следует (если умножить обе части равенства слева на а'2), что

и т. д. собственными векторами ковариационной матрицы С, которые соответствуют собственным значениям Я3, Я4, ..., Яр, расположенным в порядке убывания величины.

Таким образом, дисперсии главных компонентов

В(гк) = В(а'кхх) = а'кхСхак = Як (3.23)

для к = 1, 2, ..., р, или

(3.24)

Если составить матрицу А так, что ее к-м столбцом является к-й собственный вектор ак ковариационной матрицы, то матрица А будет ортогональной (А'хА = 1р, А'= А-1) и преобразование переменных х в пространство главных компонентов г примет вид:

г = А'хх

1=%аПХх]

7=1

(3.25)

(3.26)

А'хСхЛ,

(3.27)

С = АхЛхА'

(3.29)

Рассмотрим геометрическую интерпретацию преобразования (3.27). Для этого рассмотрим уравнение р-мерного эллипсоида

х'хС ‘хх = const

(3.30)

то найденное здесь собственное значение Я *Я2 также является максимальным. Если предположить, что все собственные значения ковариационной матрицы различные, то а1. Если предположить обратное, то тогда должно было бы выполняться условие равенства собственных векторов а2 = а1, что нарушило бы условие а'1ха2 = 0 (3.11). Таким образом, Я является вторым по величине наибольшим собственным значением ковариационной матрицы, а а2 является соответствующим ему собственным вектором.

Аналогично можно показать, что векторы коэффициентов в (3.2), соответствующие к = 3, 4, ... р, являются третьим, четвертым

скольку параметры моделей имеют различные размерности. Поэтому на практике всегда используют вспомогательные нормализованные и центрированные переменные (3.3), а ковариационную матрицу преобразуют в корреляционную. Это можно выполнить с помощью соотношения (1.2) или по той же методике, что и в случае ковариационной матрицы, но для переменных, нормированных на их среднеквадратическое отклонение. Заметим, что, несмотря на простоту перехода от одной матрицы к другой, простого соотношения между главными компонентами, полученными из ковариационной и корреляционной матрицы, не существует.

Обратный переход от нормализованных переменных к ненормализованным выполняют по формуле, следующей из (3.3):

Рг = V, +0,хх,

(3.31)

После нахождения главных компонентов оценивают относительный вклад каждого из них в суммарную дисперсию или относительную сумму первых q наибольших дисперсий по формуле

Аналогично можно составить диагональную матрицу Л, у которой к-й диагональный элемент равен собственному значению Як = ог(2к). Тогда, используя последнее равенство в (3.23), получим:

Кп

2>«

¿=1

(3.32)

то есть с помощью преобразующей матрицы А ковариационная матрица С может быть приведена к диагональному виду Л преобразованием подобия (3.27). Из последнего равенства следует

СхА = АхЛ

Если выполнить преобразование р координат вектора х в главные компоненты, то в пространстве главных компонентов эллипсоид будет располагаться так, что его главные оси совпадут с осями координат [30], причем величины полуосей эллипсоида будут равны О,, 1 0 . Этот результат аналогичен полученному в начале главы для случая двух переменных (см. рис. 3.1). Поскольку эллипсоид является поверхностью равной вероятности для многомерного нормального дифференциального распределения, то можно сказать, что новые оси координат в многомерном случае настраиваются вдоль наибольших дисперсий переменных для нормального распределения.

Использование ковариационной матрицы часто неудобно для практических целей, по-

где ^ — порядковый номер данного главного компонента, п — количество переменных. Главные компоненты, которые вносят небольшой вклад (например, менее 5%) в суммарную дисперсию, могут быть исключены из рассмотрения. При этом общее количество статистических переменных уменьшается, что и является основной целью метода главных компонентов.

(3.28) Таким образом, алгоритм применения метода главных компонентов состоит из следующих шагов.

1. Нормализуют входные параметры модели транзистора (3.3).

2. Находят матрицу корреляции.

3. Находят собственные значения и собственные векторы корреляционной матрицы, используя хорошо известные вычислительные процедуры.

4. Из полученных собственных значений составляют матрицу Л, располагая собственные значения в порядке их убывания, а из собственных векторов составляют матрицу А, считая, что собственные векторы являются столбцами матрицы А и их надо располагать в той же очередности, что и собственные значения.

5. Отбирают наиболее существенные главные компоненты, пользуясь, например, критерием (3.32) или иными соображениями. Например, отбор можно вести с учетом важности того или иного параметра в конкретной задаче или с учетом чувствительности цепи к данному параметру.

6. Поскольку главные компоненты получены

из центрированных входных переменных (3.3), у которых математическое ожидание равно нулю, то и математическое ожидание главных компонентов также равно ну- www.finestreet.ru-----------------------

или

Компоненты и технологии, № 9'2003

лю. Зная математическое ожидание и дисперсию главных компонентов (3.23), мы можем сгенерировать их значения, распределенные по нормальному закону (например, для моделирования методом Монте-Карло). Полученные таким образом значения главных компонентов можно преобразовать в соответствующие им параметры компактной модели путем обратного перехода от главных компонентов к безразмерным параметрам модели:

x = Axz

j=1

¡Г У

(3.33)

(3.34)

Pi=PM

Pj ~

Wi

(3.35)

(3.36)

Л = diag[4,046 1,554

0,281 0,101 0,038

1,3 0,687 -0,006] (3.37)

|100% & 80%

I 60%

'5%

12 3 4 5 6 7 8

Порядковый номер главного компонента

Рис. 3.2. Зависимость относительной кумулятивной суммы главных компонентов от порядкового номера главного компонента

где m — количество главных компонентов. Далее можно перейти к размерным величинам

Рг = Vi + °г XX,

которые можно использовать как входные параметры модели МОП-транзистора для моделирования на SPICE.

Одним из недостатков метода главных компонентов является возможность непреднамеренного пренебрежения важными параметрами транзистора, которые имеют большой коэффициент влияния на характеристики моделируемой схемы. Такая возможность существует потому, что информация

о важности того или иного параметра никак не учитывается в процедуре отбора существенных главных компонентов. Это может привести к большим ошибкам при статистическом анализе чувствительных аналоговых цепей [31]. Для решения этой проблемы можно использовать эмпирически задаваемые весовые коэффициенты w{ [30, 31]:

После такой сортировки нетрудно построить график зависимости относительной кумулятивной суммы Кд собственных значений матрицы (3.32) от количества слагаемых д (рис. 3.2). Можно заметить, что увеличение числа главных компонентов начиная с д = 4 практически не увеличивает суммарную дисперсию первых д главных компонентов. Поэтому для статистического моделирования с погрешностью учета дисперсии 5% достаточно оставить только 4 главных компонента, соответствующих первым четырем собственным значениям матрицы Л(3.37).

Этим четырем собственным значениям соответствуют 4 собственных вектора, которые являются столбцами матрицы А:

0.093 0.4 0.719 0.16

-0.452 0.083 0.259 -0.296

0.383 0.379 0.12 0.232

-0.146 0.576 -0.399 0.394

0.436 0.125 0.232 -0.327

-0.456 0.076 0.276 -0.256

-0.349 -0.244 0.277 0.666

-0.315 0.526 -0.202 -0.25

где Р, , х,■ — взвешенные переменные. В частном случае, при ц'і = оі получаем рассмотренный ранее «классический» метод.

Весовые коэффициенты могут выбираться пропорционально коэффициентам чувствительности моделируемой цепи к соответствующим параметрам транзистора. Можно также физическим параметрам назначать большие веса, чем эмпирическим, если это соответствует смыслу решаемой задачи [31].

Пример

Пусть дана матрица корреляции параметров модели Б8ІМ3 (табл. 1.1). Найдем для нее диагональную матрицу собственных значений. Временно, с целью отбора наиболее существенных главных компонентов, собственные значения расположим в порядке их убывания:

(3.38)

Поскольку среднеквадратические отклонения отобранных главных компонентов z1, z2, z3, z4 известны (3.24), а их математические ожидания равны нулю и главные компоненты статистически независимы по определению, то мы имеем достаточно информации для того, чтобы с помощью генератора случайных чисел получить случайные значения главных компонентов z1, z2, z3, z4. Зная эти значения, можно получить величины параметров компактной модели для использования в SPICE:

AL = 0.093xz1+0.4xz2+0.719x23+0.16xz4;

sub '

-0.452xz1+0.083xz2+

динат, что не всегда приводит к наилучшему решению. При анализе разброса в пределах пластины, когда корреляционная зависимость слишком сложная, поворот осей часто не приводит к уменьшению числа статистических переменных. Техника выполнения преобразований в этом методе является достаточно громоздкой. Главные компоненты не имеют физического смысла, поэтому невозможно установить физическую причину разброса с целью целенаправленной коррекции техпроцесса.

Пример ситуации, когда метод главных компонентов дает ошибочные результаты, показан на рис. 3.3. Случайные изменения длины канала приводят к случайному изменению величины порогового напряжения, однако строго прослеживается зависимость, которую можно объяснить обратным эффектом короткого канала: транзисторы с более коротким каналом имеют большее пороговое напряжение (рис. 3.3). Меньшая группа данных имеет противоположную тенденцию: приборы с меньшей длиной канала имеют меньшее пороговое напряжение. К такого рода зависимости может привести другой механизм, а именно детерминированное изменение продольного профиля легирования у краев пластины.

Рассмотренная зависимость не может быть адекватно использована в методе главных компонентов, поскольку в данном случае любой выбор новых осей координат не приводит к независимости между длиной канала и пороговым напряжением. Кроме того, если количество точек на кривой со светлыми квадратами (рис. 3.3) будет намного больше, чем на другой кривой, то, поскольку метод главных компонентов выбирает оси в соответствии с линией регрессии, важная статистическая информация, представленная второй кривой, будет игнорирована, хотя она имеет гораздо большую дисперсию (см. рис. 3.3). В этом случае метод главных компонентов даст заниженное значение разброса.

Описанная проблема может быть решена путем разделения случайного и систематического компонентов разброса (см. следующий раздел). Тем не менее, необходимо понимать смысл преобразований, выполняемых в методе главных компонентов, чтобы не получить ложный результат.

+0.259xz3-0.296xz4.

Аналогично вычисляются значения оставшихся 6 параметров из таблицы 1.1.

Таким образом, варьируя всего 4 главных компонента 21, г^, 23, г4, мы задаем значения всех 8 параметров модели транзистора, указанные в таблице 1.1. Это уменьшает количество вариантов расчета схемы при статистическом анализе.

Несмотря на широкое применение, метод главных компонентов имеет ряд недостатков. Он использует ортогональную систему коор-

I 674

670

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

0,52 0,56 0,6 0,64

Эффективная длина канала, мкм

Рис. 3.3. Две противоположные тенденции в зависимости порогового напряжения от эффективной длины канала: пустые квадраты -зависимость вследствие обратного эффекта короткого канала и черные квадраты — зависимость вследствие разного положения транзисторов на кристалле [22]

то есть

или

8

7-

ó

СО c J

s 51

"o , ¿ 4 b 32 1

Измеренные данные

0,0 0,1 0,2 0,3 0,4 0,5

1/(\1УЦ0'5

Рис. 4.1. Зависимость среднеквадратического отклонения порогового напряжения от площади активной области прибора (кривая Пелгрома) [11

Компоненты и технологии, № 9'2003

4. Геометрические зависимости разброса параметров

Дисперсия параметров транзисторов зависит от двух геометрических факторов: от площади приборов и расстояния между ними. С увеличением площади транзистора пропорционально уменьшается и дисперсия его параметров, что связано со статистическим усреднением пространственных неоднородностей по площади прибора. Близко расположенные транзисторы имеют неодинаковые параметры, и дисперсия их рассогласования увеличивается пропорционально расстоянию между транзисторами. Эти эффекты были детально изучены и подтверждены обширным статистическим материалом в работе Пелгрома [32], которая получила очень широкое распространение в практике статистического моделирования ИС.

Однако закон Пелгрома первоначально был получен для транзисторов с минимальными размерами более 1 мкм и учитывал только локальный разброс (рассогласование) параметров МОП-транзисторов. С появлением транзисторов субмикронных размеров в закон Пелгрома были введены некоторые поправки и предложены иные способы моделирования зависимости разброса от геометрии.

4.1. Локальный разброс. Закон Пелгрома

Для моделирования рассогласования параметров транзисторов, расположенных на одном кристалле, используют «закон Пелгрома» [32], который утверждает, что дисперсия аг(ДР) разности параметров ДР двух одинаковых МОП-транзисторов зависит от расстояния между ними В и их активной площади ШхЬ (Щ и I — ширина и длина канала) по закону

2/0jl 8

0,2/4

о 0,4/1К/

2/1 /

10/0,25

10/1 0,4/10

2/Ю

10/10

0,4 0,8 1,2 1,6

^/'IWL, мкм’1

Рис. 4.2. Зависимость среднеквадратического отклонения порогового напряжения от площади активной области прибора для технологии 0,18 мкм, NMOS, [11]. Цифры около точек показывают отношение длины к ширине канала

а2^=Ц^1+БРХ1)2 (41)

2 2

где Др и Юр — экспериментально определяемые константы (подгоняемые параметры). На рис. 4.1 приведен пример экспериментально полученной зависимости среднеквадратического отклонения порогового напряжения УАо от площади транзистора [11], которая хорошо согласуется с выражением (4.1).

Выражение (4.1) было получено Пелгро-мом теоретически и подтверждено во многих

AL-.

_ ¿AL

' W

(4.2)

Аналогично, параметр уменьшения ширины канала вследствие подтравливания окисла

ÁW=-

(4.3)

работах экспериментально. При теоретическом выводе соотношения (4.1) были использованы следующие предположения:

а) флуктуации параметров технологического процесса вдоль поверхности полупроводниковой пластины описываются моделью белого шума;

б) воздействие факторов, вызывающих разброс, достаточно мало, поэтому их можно суммировать алгебраически.

в) первый член выражения (4.1) получен в предположении, что интервал пространственной автокорреляции шума много меньше размеров транзистора; второй член — в предположении, что имеется дополнительный стохастический процесс, для которого интервал автокорреляции сравним с размерами кристалла (его причиной являются медленно меняющиеся пространственные неоднородности кремния и процессов обработки).

Первый член в (4.1) объясняется простым усреднением пространственного шума в окне величиной ШхЬ. Второй член связан с систематическими пространственными погрешностями технологического оборудования и является детерминированной величиной. Однако поскольку после сборки кристаллов в корпус информация о положении кристалла на пластине теряется, этот разброс можно моделировать как случайный, с большой дистанцией автокорреляции [32]. При увеличении расстояния между транзисторами более 100 мкм появляется случайный компонент, который можно объяснить с помощью представления о пространственном шуме, спектр которого подобен спектру 1/f шума в электронных приборах [33], то есть компоненты шума с более низкой пространственной частотой имеют большую амплитуду. Тогда с увеличением расстояния между транзисторами увеличивается вероятность воздействия на них компонентов шума с большей амплитудой [33].

Параметр Д1 модели транзистора (уменьшение эффективной длины канала по сравнению с длиной на фотошаблоне вследствие латеральной диффузии истока и стока) не зависит от длины активной области, поскольку усреднение его происходит только при увеличении ширины канала [20]:

Теория Пелгрома не учитывает некоторые эффекты субмикронных технологий и может давать двукратную ошибку в расчетах [34]. В частности, в ней не учитывается эффект насыщения: начиная с некоторой дистанции между транзисторами дальнейшее ее увеличение в экспериментах не приводит к увеличению разброса [35]. Теория Пелгрома не объясняет и не учитывает также эффект увеличения дисперсии параметров по мере приближения к краям пластины от ее середины, не указывает, как разделить случайный и систематический разброс. Не учитываются также физические эффекты, влияющие на разброс параметров существенно субмикронных транзисторов: латеральная диффузия, HALO или ионная имплантация в карман, перекрытие объемных зарядов, флуктуации легирующей примеси в канале, деградация подвижности и др.

Тем не менее, результаты, представленные Пелгромом в более поздней статье [11] для транзисторов, выполненных по технологии 0,18 мкм с толщиной окисла 3,3 нм (рис. 4.2), говорят о том, что зависимость (4.1) может быть использована и для транзисторов с суб-микронными размерами. В работе [36] также было получено подтверждение справедливости зависимости

°2(vth0) =

4

WxL

даже для транзисторов с длиной канала менее 100 нм.

Дальнейшие уточнения закона Пелгрома велись по пути увеличения количества эмпирически подбираемых коэффициентов. При этом благодаря увеличению числа степеней свободы в процедурах среднеквадратической подгонки повышается точность аппроксимирующих формул. Такой подход использован в моделях [37, 38], где вместо одного параметра модели Пелгрома АР используются три подгоночных параметра А1Р, А2Р, А1Р:

о2(АР)~-

чр

+

А

2 Р

WxL WxL2

+

+ ^l^ + SlxD2 W2xL

(4.4)

Несколько иные поправки использованы в модели [39], которая верифицирована для транзисторов с длиной канала 0,8 мкм:

2(д vtho)=

Vtho

(W-A W)x(L-AL)

(4.5)

где Д№ и АІ имеют тот же смысл, что и в (4.2 — 4.3), но в данном случае берутся их математические ожидания.

Наиболее точная модель, содержащая 9 подгоняемых коэффициентов, описана в работе [40]. Зависимость дисперсии разброса параметров в0 (параметр деградации подвижности в омической области), ве (по- www.finestreet.ru----------------------

Компоненты и технологии, № 9'2003

0^= 366 НМ 0^= 519 нм

V

0,1 0,2 0,3 0,4 0,5

1 мкм-1

Рис. 4.3. Скорректированная для малых размеров зависимость среднеквадратического отклонения порогового напряжения от площади активной области прибора, PMOS, [33]

правка к 0о для области насыщения), у (коэффициент влияния подложки), в, У^о от длины и ширины канала в этой модели описывается одним и тем же соотношением для всех параметров:

о2(ДР)=С00+

+

"20

г+-

"02

((Г-Ож)2 (Ь-О,)2

+

+-

"21

__________^12

г +

+

"22

(4.6)

где Су ВЩ, Вь — подгоняемые коэффициенты.

Общим недостатком описанных моделей является их полуэмпирический характер: они не устанавливают физически обоснованных соотношений между разбросом параметров техпроцесса и параметров модели. Физически обоснованная модель предложена в работе [41]. Благодаря анализу физических процессов, приводящих к разбросу параметров, удалось получить аналитические соотношения, устанавливающие связь параметров аппроксимирующих формул с параметрами технологического процесса. Модель использует соотношение, аналогичное (4.4) для зависимости УЛо и в от длины и ширины канала, однако константы, определяемые в (4.4) экспериментально, в данной модели рассчитываются исходя из геометрии транзистора и параметров технологического процесса. Модель верифицирована для длин каналов 0,4 мкм, 0,35 мкм, 0,25 мкм и 0,18 мкм.

4.2. Моделирование геометрических зависимостей глобального разброса

Для оценки величины глобального разброса обычно используют измерение параметров сходных структур, расположенных на разных кристаллах одной и той же пластины с последующим усреднением полученных данных в движущемся окне. Величина окна выбирается такой, чтобы убрать пространственный шум, связанный с локальным разбросом. Однако такой простой способ часто неэффективен. Более точные методы оценки величины глобального разброса предложены в работе [42]. Это усредняющий алгоритм оценки с прореживанием,

сглаживание сплайном, метод регрессии, а также метод, представляющий собой линейную комбинацию нескольких перечисленных методов.

Усредняющий алгоритм оценки с прореживанием использует интуитивно понятный эффект — после усреднения данных, попадающих внутрь движущегося прямоугольного окна, можно сгладить быстро изменяющиеся компоненты пространственного шума. Алгоритм начинается с интерполяции исходных данных на равномерной сетке. Количество узлов сетки выбирают примерно равным количеству исходных данных. Затем сетку делают в 4 раза реже. Для каждого узла прореженной сетки вычисляют среднее значение, используя данные в близлежащих узлах. Обычно берутся данные и тех узлов, которые были выброшены при прореживании. Количество точек, по которым вычисляется среднее, является параметром алгоритма оценки, и оно определяет границу, по которой отделяют локальный разброс от глобального. Полученные таким усреднением данные в узлах грубой сетки используются в дальнейшем для обратной интерполяции, чтобы получить данные в узлах густой сетки. Таким способом устраняется пространственный шум, не связанный с глобальным разбросом параметров по пластине. После вычитания глобального разброса из исходных данных получают локальный разброс.

Этот алгоритм требует контроля за возможным появлением алиасных частот, возникающих в результате биения частоты входных данных и частоты, связанной с шириной усредняющего окна. Эффект биения может возникать при ярко выраженной периодичности входных данных, обусловленной периодичностью расположения кристаллов на пластине. Использование более широкого усредняющего окна ослабляет этот эффект, однако появляются большие ошибки на краях пластины, где обрывается периодическая последовательность исходных данных. В этих случаях лучшие результаты дает оценка с помощью сплайна или уравнения регрессии [42].

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Алгоритм оценки величины глобального разброса с помощью сплайна начинается также с интерполяции входных данных в узлах равномерной сетки. Затем выполняется процедура сглаживания сплайном вдоль одной, затем вдоль другой координаты [42]. В узлах сетки берется среднее арифметическое между значениями сплайна для одной и другой координаты. Оценивание сплайном дает очень точные результаты при правильном выборе коэффициента натяжения сплайна, однако этот метод достаточно сложен для его воплощения.

Наиболее простой процедурой оценки является среднеквадратическая подгонка уравнения регрессии к входным экспериментальным данным. В качестве уравнения регрессии обычно используют уравнение поверхности первого [9] или второго порядка, в декартовых координатах х, у [43, 42, 44]:

g(x, у) = ах(хХ-+У)+Ъхх+сху+й (4.7)

или в полярных координатах (г, в): g(r,Q)=aXr2+

+-\/ь2+с2хгхсо8(0+а)+й? (4.8)

где а, Ъ, с, й — оцениваемые (подгоняемые) параметры.

Поскольку полином вида (4.7), в отличие от сплайна, имеет всего 4 варьируемых параметра, он может оказаться недостаточно гибким, чтобы выделить из исходных данных глобальный разброс сложной формы. В этом случае лучшие результаты дает сглаживание сплайном. Преимуществом регрессионного метода оценки является компактность выражения (4.7).

В описанных алгоритмах оценки величина усредняющего окна или коэффициент натяжения сплайна являются параметрами, которые определяют границу между локальным и глобальным разбросом. Выбор этих параметров должен быть каким-то образом обоснован. В работе [42] для этой цели предлагается использовать понятие среднего интервала автокорреляции. Средний интервал автокорреляции вычисляется путем построения автокорреляционной функции для нескольких сечений по диаметру пластины, взятых случайным образом. По полученным функциям вычисляется интервал автокорреляции и берется его среднее значение для разных срезов. Интервал автокорреляции задает ширину усредняющего окна или величину коэффициента натяжения сплайна.

4.3. Статистическое моделирование ИС с учетом пространственной корреляции параметров модели

При статистическом моделировании ИС нужно сгенерировать наборы случайных значений параметров транзисторов ИС, которые будут использоваться при каждом запуске программы моделирования. Самое простое решение этой задачи состояло бы в том, чтобы получить случайные значения каждого параметра Р (например, УЛо или цо) с помощью генератора случайных чисел. Для этого достаточно было бы сложить математическое ожидание параметра Р со случайной величиной т а ) ) , ' которая распределена по нормальному закону и имеет нулевое математическое ожидание и дисперсию а? :

Р=11р+Ы(0,о$)

(4.9)

В случае, когда учитывается только глобальный разброс, параметры всех транзисторов могут иметь одинаковые значения. Для учета геометрических зависимостей разброса параметры должны зависеть от расстояния между транзисторами В и их площади 5, то есть

яр, л)=Ну№ Д)+МР,о5(5,я)) (4.10)

Однако такой упрощенный подход дает слишком пессимистичный результат, поскольку не учитывается корреляция параметров транзисторов. Для ее учета случайные значения параметров в каждом акте моделирования ИС должны быть выбраны таким образом, чтобы ковариационная матрица

Компоненты и технологии, № 9'2003

этих параметров была равна ковариационной матрице, полученной при статистической обработке измеренных параметров транзисторов. В общем случае необходимо использовать две ковариационные матрицы: матрицу ковариации разных параметров одной и той же модели (см., например, таблицу 1.1) и матрицу пространственной ковариации одноименных параметров, принадлежащих разным транзисторам ИС. Поскольку обычно для статистического моделирования используют не параметры моделей, а главные компоненты, которые являются некоррелированными, то случайные векторы генерируют, используя только матрицу пространственной корреляции главных компонентов.

Таким образом, для корректного решения поставленной задачи необходимо сгенерировать коррелированные векторы случайных параметров Р = (Рр Р2, ..., Ри)' для транзисторов, такие, что

M[P] = ц и D[P] = C

(4.11)

C = U'xU

(4.13)

P = U'xx+ц

(4.14)

M[ U'xx+ц] = M[U'xx]+M[pJ =

= U'xM[x]+p, = ц (4.15)

Рассмотрим теперь дисперсию вектора Р:

£[Р] = 0[И'хх+ц] = £[И'хх] =

= М[(и'хх)(и'хх)'] =

= М[и'хххх'хи] = и'хМ(ххх')хи =

= и'хіхи = и'хи = С (4.16)

Здесь использовано свойство дисперсии вектора х (4.12).

Таким образом, вектор Р удовлетворяет предъявляемым к нему требованиям (4.9).

Заметим, что если декомпозиция Холецкого использует нижнюю треугольную матрицу Ь, то есть С = ЬхЬ', то вектор Р получается в виде

P = Lxx+ц

(4.17)

то есть математическое ожидание этого вектора должно быть равно вектору матожида-ний параметров транзистора ц, а дисперсия должна быть равна ковариационной матрице C, описывающей пространственную ковариацию параметров.

Для решения этой задачи будем использовать генератор случайных чисел. Построим вспомогательный вектор независимых случайных величин x = (xj, x2, s, xn)', распределенных по нормальному закону Nn, такой, что

M[x] = 0 и D[x] = M[x, x'] = I (4.12)

где I — единичная матрица, 0 — нулевая матрица.

Тогда можно попытаться найти такое линейное отображение вектора x в вектор P, для которого вектор P будет иметь нужные нам свойства (4.11). В работе [28] эта задача решается с помощью так называемого метода «ст-пространства». В работе [45] показано, что метод «ст-пространства» эквивалентен разложению Холецкого для ковариационной матрицы C. Поскольку ковариационная матрица является симметричной и положительно определенной, разложение Холецкого позволяет представить матрицу C в виде

P = Lxx+ц

(4.18)

где и — верхняя треугольная матрица с положительными диагональными элементами.

Если искомый коррелированный вектор Р получить с помощью линейного отображения

где ц — вектор матожиданий компонентов вектора Р, то он будет удовлетворять соотношениям (4.11) [45]. Действительно, используя свойство математического ожидания (3.7), а также свойство (4.12) вектора х, получим:

н

г}

и тогда из (4.20) и (4.19) следует, что

откуда

2xa2pi-2xcov(PÎ, pj)=

■■1-^—+S2txdlj WxL p1 *

cov

2 1 = (J -X pl

WxL

+S2pixdl

(4.21)

Итак, используя генератор случайных чисел х1, х2,..., хп и треугольную матрицу и, полученную с помощью разложения Холецкого (4.13) для ковариационной матрицы С, а также применяя линейное отображение (4.14), мы можем получить коррелированный вектор параметров транзисторов Р, необходимый для очередного запуска программы моделирования. Компоненты этого вектора кор-релированы точно так, как и измеренные параметры моделируемых транзисторов.

Большую долю разброса длины канала МОП-транзистора составляет систематическая компонента [22], для учета которой в выражении для коррелированного случайного вектора (4.14) используют матожидание, зависящее от координат х, у транзистора на кристалле или пластине [22]:

Из ковариаций, вычисленных по формуле

(4.21), можно составить матрицу С, которая была использована нами выше для получения случайного вектора Р.

4.4. Совместный учет глобального и локального разброса

Для совместного учета локального и глобального разброса используется методика, аналогичная вышеописанной. Для того чтобы получить значение г-го параметра модели ;-го транзистора Р) , будем использовать вспомогательные случайные переменные и с нулевым математически ожиданием и дисперсией, равной соответственно о^. и ош) . Переменная моделирует глобальный разброс параметра Р) (поэтому она не имеет индекса ;), переменная т)) моделирует локальный разброс, который различен для различных транзисторов ) на кристалле. Тогда случайное значение параметра Р) можно представить в виде [46]:

(4.22)

Pj = \ip,+gi+m)

Рассмотрим теперь, как получить матрицу пространственной ковариации С [46], использованную в (4.13). Для описания ковариации, обусловленной зависимостью дисперсии параметров от расстояния между транзисторами, можно воспользоваться законом Пелгрома, который дает значения дисперсии разностей параметров о 2(р£ -Р} ) :

°20,*--рі)=|^+5>іх4 (419)

где і} , Р} , — значения г-го параметра моделей к-того и ;-го транзисторов; йщ — расстояние между центрами этих транзисторов. Поэтому, пользуясь определением дисперсии, можно получить, что

о2 (/>'-/>;)=

=м[((^-р;)-(^-^))2]=

=м[(#-ц ^)2]+м[(я;-цР.)2]-

-2 хм[(р;-ц^)х(р;-^.)]= =о£+о£-2хсот(Р*',Р;) (4.20)

к У

где соу(Р} , Р} ) — ковариация параметров , Р} . Для одинаковых транзисторов

где Цу — математическое ожидание параметра. Предположим теперь, что параметры различных типов, относящиеся к одному и тому же транзистору, взаимно независимы, что их всегда можно получить, используя вместо параметров соответствующие им главные компоненты. Тогда ненулевые ковариации останутся только между одноименными параметрами разных транзисторов, и их можно получить с помощью описанной выше методики — см. (4.21).

Для учета корреляции параметров при статистическом моделировании необходимо использовать коррелированные векторы, как это было описано выше — см. (4.17). Однако для учета глобального разброса вектор параметров Р должен определяться двумя ковариационными матрицами С? и Ст, первая из которых относится к глобальному разбросу, вторая — к локальному [46]:

P = ^+Lgxu+Lrnxv

(4.23)

где Р — вектор п случайных коррелированных переменных с математическим ожиданием ц, и ковариационной матрицей С; и и V — независимые векторы независимых случайных величин с нулевым матожиданием и единичной дисперсией; ^ Ьт — нижняя треугольная матрица, полученная путем декомпозиции Холецкого из двух блочно-диагональных ковариационных матриц С? и Ст. Вследствие независимости между С, С„ и Ст

C = Cm+Cg

(4.24)

Компоненты и технологии, № 9'2003

что отражает интуитивно понятный факт, что общая дисперсия любого параметра равна сумме локальной и глобальной дисперсий, поскольку они статистически независимы. Поэтому для генерации случайного вектора P можно использовать одну общую ковариационную матрицу C. МММ

Окончание следует

Литература

26. Бубенников А. Н., Садовников А. Д. Физико-технологическое проектирование биполярных элементов кремниевых БИС. М.: Радио и связь. 1991.

27. Accurate Worst-Case Model Generation with SPAYN. Silvaco Simulation Standard. Vol. 5.

No. 2. Oct. 1994.

28. Michael C., Ismail M. Statistical modeling of device mismatch for analog MOS integrated circuits // IEEE Journal of Solid-State Circuits. Vol. 27. No. 2. Feb. 1992.

29. Felt E., Narayan A., Sangiovanni-Vincentelli A. Measurement and modeling of MOS transistor current mismatch in analog IC's. IEEE/ACM Int. Conf. on Computer-Aided Design. 1994.

30. Jolliffe I. T. Principal Component Analysis — 2nd ed. Springer-Verlag, New York. 2002.

31. The Advantages of Weighted PCA Techniques for Statistical Parameter Analysis. Silvaco Simulation Standard. Vol. 6.

No. 9. Sept. 1995.

32. Pelgrom M. J. M., Duinmaijer A. C. J., and Welbers A. P. G. Matching properties of MOS transistors // IEEE J. Solid State Circuits. Vol. 24. 1989.

33. Oehm J., Grunebaum U., Shumacher K. Mismatch effect explained by the spectral model. Electronics, Circuits and Systems.

1999. Proc. of ICECS '99. The 6th IEEE Int. Conf. on. Vol. 2.

34. Drennan P. G., McAndrew C. C. A comprehensive mosfet mismatch model. in Proc. IEEE Int. Electron Devices Meeting. Dec. 1999.

35. Conti M., Crippa P., Orcioni S., Turchetti C. Statistical modeling of MOS transistor mismatch based on the parameters' autocorrelation function. Circuits and Systems. 1999. Proceedings of the 1999 IEEE International Symposium on ISCAS '99. Vol. 6.

36. Horstmann J. T., Hilleringmann U., Goser K. F. Matching Analysis of Deposition Defined 50-nm MOSFET's. IEEE Trans. on Electron Devices. Vol. 45. No. 1. Jan. 1998.

37. Bastos J., Steyaert M., Roovers R., Kinget P., Sansen W., Graindourze B., Pergoot A., Janssens E. Mismatch characterization of small size MOS transistor. IEEE International Conference on Microelectronic Test Structures. Vol. 8. March 1995.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

38. Steyaert M., Bastos J., Roovers R., Kinget P., Sansen W., Graindourze B., Pergoot A., Janssens E. Threshold voltage mismatch in short-channel MOS transistors. Electron. Lett.. Vol. 30. No. 18. Sept. 1994.

39. Lovett S. J., Welten M., Mathewson A., and Mason B. Optimizing MOS Transistor Mismatch // IEEE Journal of Solid-State Circuits. Vol. 33. No. 1. Jan. 1998.

40. Serrano-Gotarredona T., Linares-Barranco B. A New Five-Parameter MOS Transistor

Mismatch Model // IEEE Electron Device Letters. Vol. 21. No. 1. Jan. 2000.

41. Maxim A., Gheorghe M. A novel physical based model of deep-submicron CMOS transistors mismatch for Monte Carlo SPICE simulation. Circuits and Systems, ISCAS 2001. The 2001 IEEE International Symposium on. 2001.

42. Stine B. E., Boning D. S., Chung J. E. Analysis and Decomposition of Spatial Variation in Integrated Circuit Processes and Devices. IEEE Trans. on Semiconductor Manufacturing. Vol. 10. No. 1. Feb. 1997.

43. Tulunay G., Dundar G., Ataman A. A new approach to modeling statistical variations in MOS transistors. Circuits and Systems. ISCAS 2002. IEEE International Symposium on. Vol. 1. 2002.

44. Okada K., Onodera H. Statistical modeling of device characteristics with systematic variability. IEICE Trans. Fundamentals. Vol. E84-A. No. 0.2. Feb. 2001.

45. Felt E., Zanella S., Guardiani C., Sangiovanni-Vincentelli A. Hierarchical statistical characterization of mixed-signal circuits using behavioral modeling. IEEE/ACM International Conf. on Computer-Aided Design. ICCAD-96. Digest of Tech. Papers. 1996.

46. Zanella S., Nardi A., Quarantelli M., Neviani A., Guardiani C. Analysis of the impact of intra-die variance on clock skew. in Proc. 4th Int. Workshop Statistical Metrology. June 1999.

i Надоели баннеры? Вы всегда можете отключить рекламу.