任何人对人工智能都具有自己的观点,而MentorGraphics在今年夏天的DAC上辩论了关于AI的2个立场。作为一家EDA公司,他们有两个特定的机会来找到人工智能的价值。一是改良他们获取的设计工具;另一个是专门为人工智能设计创立设计工具。
我们今天要谈第一个角度。因此,对于这个故事,人工智能本身并不是起点;这将是超过目的的手段。
人工智能已被用作生产车间,以协助提高产量和增加设备损耗,但这依赖晶圆厂的数据。今天,我们于是以从生产环境向设计领域的上游迈向。我们将尤其注目Mentor如何利用人工智能在晶圆厂内展开光学附近效应矫正(OPC)和生产设计(DfM)。
AI+OPC让我们从OPC想起。对于任何新概念来说,由于硅尺寸太小,无法用光刻波长193nm打印机,所以我们用了一些技巧。问题是,芯片特征尺寸如此之近,以至于影响了彼此形状的保真度。因此,这些形状被改动了——或者加到了“辅助功能”——以愚弄光线,让它照出我们想的效果。
OPC一般来说用于确定性模型来已完成,该模型容许工具创立改动后的模式。但Mentor回应,OPC面对四大挑战:精度周转时间(TAT)工艺窗口强化生产力有两家公司运用了人工智能来解决问题这一问题。为了超过所需的精度,在24小时内已完成OPC所需的内核数量正在急遽减少。
他们把人工智能看做是一种减少这种风险的方法。OPC是一个递归过程,必须在10-15次递归的范围内发散。Mentor的方法是用于机器学习重复使用处置前十次的递归。这有可能会是一个很理想的光罩(mask)方法,但它不会显得更加相似。
然后,可以用于传统递归,只需几次就可取得最后结果。正如你从图中所看见的,24小时循环所需的核心数量上升了三分之二。另一种众说纷纭是,具有人工智能的TAT是传统方法的三分之一,同时提升了精确度。
用作训练模型的数据是基于最初的晶圆设计测量。为了确认整个工艺窗口,我们展开了实验设计(DoE)来拓展数据集,新的设计可以利用该模型展开OPC。模型的演进当然,人工智能的一个有意思的特点是永无止境的自学。
获得的数据就越多,模型就越少。因此,从理论上谈,人们可以在最初批量生产的基础上之后提供生产数据,并将其划入人工智能模型中,以便随着时间的流逝不断改进。
但这里有个问题。假设你的流片设计早已搞定,但找到必须展开变更。
当你转录工程更改命令(ECO)流程并展开调整时,它必须分解一个新的掩码,这就必须OPC的拜托。在这个情况下,我们假设OPCAI模型被用作这个调整后的设计早已打破了最初的掩模集。所以现在,当你运营OPC时,你有可能不仅不会转变电路中不受ECO影响的部分,而且不会转变整个掩模。这样可以吗?你坚信人工智能模型的演化只不会提高这件事情吗?或者,你否不会以一些曾多次有效地的东西仍然有效地而收场?尽管有很多意想不到的事情再次发生了转变,但它显得更佳了。
但是现在否必须运营一些测试来保证没损毁?这违背了基本原则,“如果它没怕,就不要维修它!”“那你该怎么处置呢?”Mentor样子还没一个拿得使出的方针。他们认为,当找到新的坏点时,首要任务是展开选择性的生产调整,以尽量提高产量。但这种变化可以被应用于到人工智能模型中,让它需要凸显模具中更加多的问题区域。
因此,“持续自学”模式是切实可行的。我明确提出了一种有可能的处置方法,他们回应尊重。
——版本瞄准。对于设计工具来说,这是一个早已不存在的概念,因为新版本可能会变更算法,而在设计过程中变更版本可能会撤销所有早已已完成的发散工作。因此,你可以在设计的整个生命周期中瞄准工具版本,在下一次设计时移动到新版本。
这也可以用OPC(或任何其他)AI模型来构建:将模型的版本瞄准到设计中,以便将来对该设计所做到的任何工作都将用于完全相同的AI模型。也就是说,有可能有一个值得注意:如果这个设计说明了了新的坏点——模型最初被转变的原因。
调整生产是理想的方法,但是,如果它本身还过于,你有可能必须转变光罩以避免坏点。在这种情况下用于新的模型是有意义的。综上所述,我实在我们正在转入一个不稳定的领域,所以有可能有一些法则规定了在这种情况下应当做到什么。首先,必需否认对于应用于哪个产品不存在疑惑。
它看上去很像DRC,但实质上它是用作库检验的。换句话说,这不是一个你作为设计师不会用于的工具;这是晶圆厂在装配电路库时用于的工具。
是为了通过图案寻找容许产量的坏点,而这些一般来说必须在一夜之间已完成。原始的仿真花费的时间过于宽,因此在运营期间不会取样并检查薄弱模式。这些易受攻击的模式可以在模式库中寻找(与正在检验的电路库分离出来)。创意之处在于,他们仍然用于库来展开谏检验,而是用于它来训练一个AI模型,然后用于AI模型来检测电路库。
这带给了几个益处:首先,如果他们只用于库中的模型展开签出(checkout),那么你将不能在设计中寻找那些特定的模式。但是,用于人工智能,可能会找到不出库中放其他类似于的模式。所以获得了更佳的质量和更高的产量。
另一个益处是,现在签出运营速度比用于传统模型慢10倍。这种众说纷纭有一定的道理。展开原始的库仿真必须很长时间,这就是为什么签出经常仅限于特定的未知坏点。在取样坏点时,覆盖范围并不全面。
所以当我们说道人工智能辅助版本要慢10倍的时候,我们在和哪个东西较为呢?据Mentor讲解,他们首先证实AI版本是详细的,而10x的较为是与原始仿真的较为——也就是说,我们在展开新版和旧版的较为。伸延读者OPC技术背景在半导体生产中,随着设计尺寸的大大增大,光的散射效应显得更加显著,它的结果就是最后对设计图形产生的光学影像发育,最后在基底上经过光刻构成的实际图形显得和设计图形有所不同,这种现象被称作光学附近效应(OPE:OpticalProximityEffect)。为了修正光学附近效应,之后产生了光学附近校正(OPC:OpticalProximityCorrection)。
光学附近校正的核心思想就是基于抵销光学附近效应的考虑到,并创建光学附近校正模型,根据光学附近校正模型设计光掩模图形,这样虽然光刻后的光刻图形比较应光掩模图形再次发生了光学附近效应,但是由于在根据光学附近校正模型设计光掩模图形时早已考虑到了对该现象的抵销,因此,光刻后的光刻图形相似于用户实际期望获得的目标图形。坏点HotSpot在集成电路生产中,经过OPC处置过的版图,在发送到掩模厂生产掩模之前,还必须展开检验,就是对OPC处置过的版图做到建模计算出来,确认其合乎工艺窗口的拒绝。
不合乎工艺窗口拒绝的部分被称作坏点,坏点必需自行处置以合乎工艺窗口的拒绝。坏点修缮解决问题坏点的过程被称作“hotspotfixing”。
在k1较为小的光刻层,第一次OPC处置后的坏点有十几万到几十万个。对坏点区域图形的审查和评估是一项浩繁的工作。坏点的解决问题一般由OPC工程师负责管理,通过调整OPC来解决问题。
有些坏点是全局性的,通过改动OPC中的评价函数和规则,可以一起解决问题。而有些坏点有一定的特殊性,规则的转变不会造成其他地方构成坏点。
这些坏点必需通过局部的改动来解决问题,这一过程十分耗时。解决问题坏点时要充分利用坏点周围的空间,可以给线条加高、缩短或者加到辅助图形。
本文关键词:188BET金宝搏,188博金宝亚洲体育,金宝搏188网址登录,188金宝搏平台登录入口,188BET金宝搏官网登录入口
本文来源:188BET金宝搏-www.jnnd.net