低压差线性稳压器(LDO)作为电源管理领域的基础模块,在各类芯片设计中扮演着关键角色。这次要探讨的1.8V LDO设计,采用Cadence平台实现,是模拟电路工程师的必修课。不同于教科书上的理想模型,实际工程中我们需要考虑工艺角变化、负载瞬态响应、电源抑制比(PSRR)等二十余项关键指标。
在40nm以下先进工艺节点,传统LDO架构面临严峻挑战。比如在0.9V输入电压下要稳定输出1.8V,这对误差放大器的共模输入范围提出了严苛要求。我最近完成的一个物联网芯片项目就深有体会——当射频模块突然启动时,LDO输出电压的跌落直接影响了ADC的采样精度。
常见的LDO架构主要有三种:传统PMOS调整管型、NMOS调整管型、以及带电荷泵的NMOS型。针对1.8V输出需求,我们做了如下对比:
| 架构类型 | 压差效率 | PSRR性能 | 瞬态响应 | 面积成本 |
|---|---|---|---|---|
| PMOS型 | 较差(200mV) | 优(-60dB@1MHz) | 良 | 小 |
| NMOS型 | 优(50mV) | 中(-40dB@1MHz) | 优 | 大 |
| 电荷泵型 | 优(30mV) | 差(-30dB@1MHz) | 中 | 最大 |
考虑到物联网设备对静态功耗的敏感度,最终选择了带片外电容的PMOS架构。虽然压差效率稍逊,但其优异的PSRR特性(尤其在射频频段)更适合我们的应用场景。
误差放大器采用折叠式共源共栅结构,在保证70dB开环增益的同时,将单位增益带宽扩展到5MHz。这里有个设计细节:在输入差分对管的源极加入 degeneration电阻,虽然牺牲了少许增益,但显著改善了线性度。
基准电压源是另一个重点。传统带隙基准在1.8V输出时余度不足,我们改用自举式基准结构。通过交叉耦合的PMOS负载,在0.9V供电下仍能产生稳定的600mV参考电压,温度系数控制在15ppm/℃以内。
在Virtuoso中绘制原理图时,建议采用层次化设计方法:
特别注意:所有关键信号路径必须添加probe点,方便后续后仿真时观察。我在第一个版本就吃了亏,当相位裕度不足时,不得不重新打断走线添加探测点。
匹配性方面,采用共质心布局的误差放大器输入对管,周围放置dummy管消除边缘效应。调整管的布局尤为关键:
电源走线要遵循"先宽后窄"原则:在bonding pad附近用顶层金属走20μm宽线,到芯片内部逐渐收窄到5μm。记得在LDO输出端预留足够的去耦电容位置,我们项目就因为面积估算不足,最后被迫改用MOM电容。
建立完善的corner仿真环境至关重要,建议按以下顺序进行:
重点提醒:不要忽略封装寄生参数的影响。我们曾遇到仿真完美的设计,在封装后PSRR恶化10dB的情况。解决方法是在仿真网表中添加bonding wire的等效电感(约1nH)和封装引脚的寄生电容(约0.5pF)。
首版芯片在负载电流跳变时出现持续振荡。通过以下步骤定位问题:
最终将相位裕度提升到65°,代价是静态电流增加了5μA。这个折中选择在项目评审时引发了激烈讨论,但实测证明稳定性提升带来的可靠性收益远超功耗代价。
在2.4GHz频段PSRR不达标,比仿真结果差6dB。经过排查发现:
改进措施:
在CP测试阶段,我们发现约3%的芯片在低温下启动失败。根本原因是基准电压启动速度过慢。通过调整启动电路的偏置电流比例(从1:10改为1:5),将启动时间从50μs缩短到20μs,良率提升到99.7%。
量产测试时要特别注意:
对于追求极致性能的设计,可以考虑:
最近尝试将AI技术应用于LDO优化:用强化学习算法自动探索补偿网络参数空间,在三天内找到了比人工优化更优的解,使瞬态响应时间缩短了18%。不过这种方法目前还面临模型泛化性的挑战。