Научная статья на тему 'Обеспечение заданной достоверности селекции импортозамещающих электронных компонентов'

Обеспечение заданной достоверности селекции импортозамещающих электронных компонентов Текст научной статьи по специальности «Математика»

CC BY
97
27
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Обеспечение заданной достоверности селекции импортозамещающих электронных компонентов»

5. Петров С.П. Исследование статистических токов потребления КМОП БИС МП / Электроника и счетно-решающая техника в лесной и деревообрабатывающей промышленности. Научные труды МЛТИ, 1981, вып. 158.

УДК 656.25

Безродный Б.Ф., Майоров С.А.

Московский государственный университет путей сообщения, Москва, Россия

ОБЕСПЕЧЕНИЕ ЗАДАННОЙ ДОСТОВЕРНОСТИ СЕЛЕКЦИИ ИМПОРТОЗАМЕЩАЮЩИХ ЭЛЕКТРОННЫХ КОМПОНЕНТОВ

Возникает проблема обеспечения требуемой высокой надежности ответственной электронной аппаратуры, используемой на критически важных объектах, при проведении мероприятий по импор-тозамещению применяемых в ней электронных компонентов, включая различные микроэлектронные изделия. Поэтому оказывается необходимым проведение предварительной селекции образцов этих компонентов с целью выбора наиболее приемлемых для изготовления конкретного типа электронной аппаратуры, то есть для проведения ее «селективной сборки». Такую процедуру предлагается проводить с помощью статистического распознавания, считая из-за большого числа влияющих факторов распределения нормальными [1].

На практике требуется обеспечить при проведении селекции определенный заранее уровень её достоверности, то есть - вероятности ошибок первого и второго рода не более заданных а0 и Рс Поэтому их необходимо заложить на этапе обучения посредством определения достаточных для этого объемов обучающих выборок. С этой целью воспользуемся полученными в [1] аналитическими выражениями и приближенными методами оценки вероятностей ошибок селекции первого и второго рода а и в, определяющими их как функции от объемов контрольной и обучающих выборок, а также характеристик, в частности, нормированных квадратов разностей средних и отношений дисперсий распределений значений контролируемых параметров в различаемых классах образцов электронного компонента, которые позволяют поставить и решить задачу обеспечения заданных ограничений на вероятности ошибок селекции уже на этапе обучения. Данная задача сводится к отысканию минимальных объемов обучающих выборок т0 и т1, удовлетворяющих ограничениям на вероятности ошибок селекции первого и второго рода, т.е. неравенствам:

а(п, т0, т,, 1,7, р) < а0;

__ (1)

в(п, т0, т1, ¡1,7, р) < воВ зависимости от значений объемов обучающих выборок, т.е. относятся они к малым или средним, а также учитывая или не учитывая корреляцию контролируемых параметров или элементов обучающих выборок, для вычисления а и в следует применять соответствующие формулы из [1]. При обеспечении ограничений (1) на вероятности ошибок селекции объемы обучающих выборок т0 и т1 можно положить равными. Дело в том, что, с одной стороны, при формировании установочных партий взять априорно в точности т0 образцов изделий из класса Б0 и - из класса Б1, использовав ровно т0 + т1 образцов, нельзя, а, с другой стороны, при фиксированном общем объеме обучающих выборок С=т0 + т1 минимально возможные вероятности ошибок селекции а и в достигаются при т0 = т1. Дело в том, что согласно полученным для вычисления вероятностей ошибок формулам, а и в монотонно зависят от величины У=1/т0+1/т1г причем, чем меньше У, тем меньше а и в, следовательно, минимальные значения а и в можно получить при минимальном У. Обозначив суммарный объем выборок С=т0+т1, величину У можно представить в виде У=С/т0 (С-т0) , то есть У минимально тогда, когда максимален знаменатель Ст0 - т2, а он достигает максимального значения С2/4 при т0=т=С/2. Таким образом, в дальнейшем целесообразно принять т0=т1=т. К чему приводит превышение одним из объемов обучающих выборок

т0 или К1 определенной достаточной величины т, будет рассмотрено ниже.

Итак, для определения объема обучающих выборок, достаточного для осуществления селекции с априорно заданными ограничениями на а и в, необходимо найти минимальное т, удовлетворяющее неравенствам (1). Сразу эту задачу решить не представляется возможным, поскольку векторы 1 и 7 априорно неизвестны. Однако, из условий конкретной практической задачи для каждой из

величин =(а1] - а0]) / и 7] =&\] / '7оj ' 3=1,---,Р,

можно указать нижнюю границу d0j и (г°^)-1. Эти нижние границы определяются, как правило, разрешающей способностью измерительной аппаратуры и минимальными различиями разброса значений параметров для различаемых классов образцов контролируемого электронного компонента или грубыми экспериментальными оценками. Из результатов, изложенных в [1], следует, что замена

векторов 1 и 7 на 10 и 7° увеличит соответствующие значения вероятностей ошибок а и в и приведет к некоторому увеличению т, удовлетворяющего неравенствам (1), но его уже можно определить, и такой объем обучающих выборок может гарантировать априорно заданные вероятности ошибок селекции уже на этапе обучения процедуры контроля. Для определения достаточного т перейдем от дискретной целочисленной переменной т к непрерывной вещественной переменной У, вычислим

корни уравнений а(п,Уа,10,7°,р) = а0 , (2)

в( п,Тр, 1°, 7°, р ) = во , (3)

а в качестве требуемого значения т примем

т = [шях [Уа, +1 , (4)

где [2] - целая часть вещественного числа 2.

Поскольку функции а(п,Уа,10,7°, р) и в(п,Ур, 10,7°, р)

монотонно убывают с ростом величин Уа и Ув [1], то каждое из уравнений (2) и (3) может иметь не более одного корня. Однако, может случиться, что корня и не будет, поскольку при неограниченном увеличении Уа (Ув) вероятность ошибки первого рода уменьшается не до нуля, а до значения соответствующей вероятности ошибки при полном априорном знании распределений значений вектора контролируемых параметров в различаемых классах образцов. В связи с этим при решении задачи определения объема обучающих выборок, достаточного для осуществления селекции образцов исследуемого электронного компонента с априорно заданными ограничениями на а и в, следует использовать максимально возможное число р электрических параметров, допускающих измерения, и максимально возможный по условиям конкретной практической задачи объем контрольной выборки п. Это, с одной стороны, позволит в силу убывания а и в с ростом р и п практически всегда добиться существования корней у уравнений (2) и (3), если требования по достоверности селекции искусственно не завышены, т. е. а0 и в0 не очень малы, а, с другой стороны, в силу замены dj и г-^; j=1,... р, на минимальные d0j и (r0j)-1, которая приводит к некоторому завышению достаточного объема обучающих выборок т, в дальнейшем оптимизировать процедуру селекции, уменьшив п и р, не выходя за рамки заданных ограничений на вероятности ошибок контроля.

Рассмотрим влияние на величину объема обучающих выборок, достаточного для параметриче-

ской селекции образцов электронных компонентов с априорно заданными ограничениями на а и в, изменений различных параметров процедуры селекции. Для простоты иллюстрации выберем а0=в0, а влияние их различий рассмотрим ниже.

На рис.1 представлены графики зависимостей т(п) при ¿=1.0, г-1=2.0, р=1 для различных а0=в0. Функция т(п) монотонно убывает c ростом п, причем в области малых п достаточно быстро. Это иллюстрирует целесообразность осуществления одновременной селекции однородной группы образцов исследуемого электронного компонента, с одной стороны, и плохое качество селекции их по отдельности, с другой. Такой характер зависимости объема обучающих выборок т, достаточного для осуществления селекции с заданными а0=в0, от объема контрольной выборки сохраняется при всех

значениях величин dj, г— и числа используемых

параметров р. При этом увеличение значений этих величин влечет усиление крутизны графиков. Как видно из рис.1, т(п), быстро убывая с ростом п, начиная с некоторого значения п=п0, меняется уже слабо, оставаясь практически постоянным. Причем с уменьшением а0 = в0 значение п0 увеличивается. Для приведенного на рис. 1 примера для а0=в0=0.1 - п0 =13, для а0 =в0 = 0.075 - п0 = 17, а для а0 = в0 = 0.05 п0 составит уже 23.

Этот эффект иллюстрирует тот факт, что неограниченным увеличением объема контрольной выборки нельзя компенсировать некачественное обучение процедуры селекции, качество которой определяется объемом обучающих выборок, и как угодно уменьшить т. Другими словами, для каждого значения а0=в0 существует минимальное значение тШ1п, до которого можно уменьшить объем обучающих выборок, увеличивая объем контрольной, причем, чем меньше а0=в0, тем больше тш!п. Для случая, проиллюстрированного на рис. 1, при а0= в 0=0.1 тт1п = 6, при а0=в0 =0.075 тат1п будет 9,

а для а0=в0=0.05 тт±п составит уже 13. ш г~

150 100 50

а0=Р0=0,05 а0=Р0=0,075 150

«сгРсгОД

5 10 р

п=5; (1=0,5; гЧ.5

0,7 0,9 с!

р= 1; п=20; г'=1,5

а0=р0=0,05 а0=Р=0,075

а0=Р0=0,1

р=1; (1=10; г =20

Рисунок 1

1,5 2,0 2,5 г р=1; (1=0,5; п=20

С другой стороны, слабое убывание т(п) при п>п0 показывает, что с точки зрения сокращения требуемого объема обучающих выборок, а, следовательно, и установочных партий для каждого из двух классов образцов, брать объем контрольной выборки больше п0 не имеет смысла, так как это

практически не уменьшает требуемого объема обучающих выборок т. Также неограниченным увеличением т нельзя обеспечить уменьшение п до единицы, так как рассматриваемая функция т(п) областью своего определения имеет бесконечный вправо полуинтервал (пт1п, да) , где пт±п представляет собой минимально возможное п, достаточное для достижения заданных а0 и в0 при неограниченном увеличении объема обучающих выборок и фиксированных распределениях вектора контролируемых параметров в различаемых классах образцов исследуемого электронного компонента. Это обусловливается тем, что неограниченное увеличение т при фиксированных й, Г для каждого п позволяет уменьшить вероятности ошибок селекции первого и второго рода а и в лишь до значений, рассчитанных при полном априорном знании распределений контролируемых параметров в различаемых классах образцов, а это, в свою очередь, означает, что не при всех значениях п достижимы при обучении заданные а0 и в0. Таким образом, для заданных допустимых вероятностей ошибок селекции а0 и в0 можно определить минимально возможный объем контрольной выборки как минимальное натуральное число п, удовлетворяющее неравенствам

а(п, й, г, р) < а0, в( п, й, Г, р )<во

(5)

где а и в в левых частях неравенств (5) рассчитываются по формулам для полного априорного знания, и определяется как увеличенная на единицу целая часть максимального из единственных корней двух уравнений, которые получаются из нестрогих неравенств (5) переходом к равенствам и заменой дискретной переменной п на непрерывную.

Из рис. 1 видно, что графики зависимостей т(п) для меньших значений а0=в0 лежат выше, к тому же они круче. Значения пт1п для меньших а0=в0 больше. Из рис. 1 также видно, что различия в значениях требуемого для достижения а0 и в0 объема обучающих выборок т для различных а0 = в0 уменьшаются с ростом п. Это объясняется общей тенденцией снижения вероятностей ошибок селекции до нуля при неограниченном увеличении объема контрольной выборки п.

Зависимость объема выборок, достаточного для осуществления селекции образцов электронных компонентов с априорно заданными ограничениями на а и в, от числа используемых при этом контролируемых параметров т(р) имеет характер, подобный т(п). На рис. 1 приведены графики, иллюстрирующие эту зависимость для параметров, имеющих подобные распределения, то есть dj и г-^ одинаковы для всех j (j=1,...p). Для каждого значения а0=в0 существует минимально возможное для достижения при обучении а0=в0 число параметров рт1п. Объясняется это теми же причинами, что и существование пт1п для т(п). Функция т(р), как видно из рис. 1, быстро убывает с ростом р в области малых значений р, затем проходит участок сильной выпуклости, и далее, начиная с некоторого значения р=р0, ее убывание существенно замедляется, а значение т(р) становится практически постоянным и равным некоторому тт±п, зависящему от значений а0 и в0. Другими словами, с точки зрения снижения объема обучающих выборок, требуемого для достижения заданного качества обучения процедуры селекции неограниченно увеличивать число используемых для ее осуществления параметров нецелесообразно, так как увеличением числа контролируемых параметров компенсировать некачественное обучение не удается. Для примера, проиллюстрированного на рис. 1, при а0=в0=0.1 не следует использовать более р0=6 параметров. При этом тт1п составит 5-6 образцов. С уменьшением а0=в0 график т(п) поднимается выше, а р0 и тт1п увеличиваются. На рис. 1 приве-

дены зависимости требуемого для достижения заданных вероятностей ошибок селекции а и ßo объема обучающих выборок от величин dj и Гj~1, характеризующих, как отмечалось ранее, распределения параметров в различаемых классах образцов исследуемого электронного компонента. Для простоты иллюстрации выбран пример контроля по одному параметру. Однако, в многомерном случае наблюдаются аналогичные зависимости от dj и rj 1 для любого j, то есть для любого из выбранных параметров при фиксированных dk и гк 1 для остальных контролируемых параметров. Из приведенных на рис. 1 графиков видно, что функции m(d) и m(r-1) монотонно убывают ростом d и г-1 для всех значений ao=ßo. При этом с ростом d и г1 функции m (d) и m\(r1) для различных значений ao=ßo сближаются, что опять-таки объясняется стремлением вероятностей ошибок селекции первого и второго рода к нулю при неограниченном увеличении d и г1. На примере графиков, изображенных на рис. 1 и соответствующих ao=ßo=0.1, хорошо видно, что существуют такие значения do и ro-1, увеличение величин d и г-1 свыше которых не приводит к существенному уменьшению объема обучающих выборок, требуемого для достижения заданных априорно ограничений на вероятности ошибок селекции образцов электронных компонентов. Это означает, что при больших реальных значениях величин d и г-1 в задаче определения требуемого объема обучающих выборок можно использовать даже грубые оценки величин d и г-1, не увеличивая существенно получаемое m. Как и для зависимостей m(n) и m(p), для m(d) и т(г-1) существуют минимально достижимые значения mmin, к которым графики этих зависимостей асимптотически приближаются с ростом d и г1. Разница заключается в том, что в данном случае для всех значений ao=ßo это значение mmin равно единице и является горизонтальной асимптотой для всего семейства кривых, определяемого различными значениями ao=ßo. Этот факт объясняется тем, что, для бесконечно большого d при ограниченном г-1 или для бесконечно большого г-1 при ограниченном d предложенные в [1] решающие правила становятся практически безошибочными, что позволяет иметь для качественного обучения процедуры селекции лишь по одному образцу от каждого из двух классов So и Si, так как в этом случае различия в значениях контролируемых параметров для них существенны. При приближении г-1 к единице или d к нулю в зависимости от значения ao=ßo функции яг(г_1) и m(d) ведут себя двояко. Если вероятности ошибок селекции a и ß, рассчитанные по формулам для полного априорного знания при d=0 или г_1=1 и соответствующие неограниченной продолжительности обучения, не превышают ao и ßo, то яг(г-1) и m(d) ограничены при подходе к г-1 и d=0 и принимают в точках г_1=1 и d=0 конечные значения. Если же вышеупомянутые вероятности ошибок a и ß больше ao=ßo, то для функций m(d) и ^¡(г1) существуют вертикальные асимптоты при значениях c^dmin и г_1=гт^-1, которые определяются как максимальные корни уравнений

тельно положили ао=во. Теперь рассмотрим влияние различий, ограничивающих вероятности ошибок селекции значений ао и во, на величину требуемого для их достижения т.

т

a(n, d, r 1 ) = a0 = ß0, ß(n, d, r- ) = ao =ßo

и зависят от конкретных значений а и во. Это означает, что для малых ао =во не при всех значениях величин d и r 1, а в многомерном случае - dj и rj-1 (j=1,...p), можно достичь заданного качества обучения процедуры селекции, определяемого заданными ао и во, а достижимы они лишь для r-1 > rm-n и d>dmin.

Для анализа величины объема обучающих выборок m от параметров процедуры селекции и характеристик распределений значений контролируемых параметров в различаемых классах образцов исследуемого электронного компонента мы принуди-

0.05 0,075 0.1 ос„

р=1; с!=0.5: г'=1.5; п=30

Рисунок 2

На рис. 2 представлены графики зависимостей т(ао)и т(во) при фиксированных остальных величинах d, г, п, р. Вид графиков инвариантен относительно конкретных значений фиксированных величин. Функция т(ао) для различных значений во монотонно убывает с ростом ао до во, а затем остается практически постоянной. Также ведет себя и т(во) для различных ао. Таким образом, при определении объема обучающих выборок, требуемого для осуществления селекции с априорно заданными ограничениями ао и во, практически без изменения т вместо ограничений ао и во можно взять равные ограничения а о = во=т2п{ао, во}. Таким образом, проведенные выше при условии ао и во исследования зависимостей требуемого т от параметров процедуры селекции и характеристик распределений вектора контролируемых параметров в различаемых классах 5о и 51 полностью справедливы и для различных ао и во.

В начале статьи было принято допущение, что то=т1=т. Поэтому целесообразно рассмотреть влияние различий объемов обучающих выборок для различаемых классов образцов исследуемого электронного компонента на значения вероятностей ошибок селекции первого и второго рода, т. е. оценить, к каким отклонениям от случая то = т1 приводят эти различия. Для этого следует рассмотреть зависимости вероятностей ошибок селекции первого и второго рода а и в от объёма то обучающей выборки класса 5о при фиксированной величине объёма т1 обучающей выборки для класса 81. Они инвариантны относительно фиксированных р, ( , Г и п. Для всех значений объема т1 обучающей выборки класса 51 функции а( то) и в( то) быстро монотонно убывают с ростом то приблизительно до точки то=т1, а затем убывают значительно слабее или даже, как, например, для средних значений т1, остаются практически постоянными. Это, во-первых, означает, что если то<т1, когда т1 фиксировано, то а и в существенно больше, чем в случае то=т1, то есть малость объема то обучающей выборки из класса 5о вызывает резкое увеличение вероятностей ошибок селекции первого и второго рода практически независимо от того, сколь велик объем т1 обучающей выборки из класса 51. Во-вторых, это означает, что увеличение то за значение т1 не дает заметного уменьшения вероятностей ошибок а и в, по сравнению со случаем то=т1, т. е. не позволяет достичь заданных ао и во, если т1 таково, что а(то)>ао или в(то)>во при т1=то. Из вышеизложенных рассуждений следует, что при фиксированном объеме т1 обучающей выборки из класса 51 умень-

i Надоели баннеры? Вы всегда можете отключить рекламу.