tf.nn.lrn() 方法有什么作用?

2024-01-12

这是 cifar10-tutorial 中的代码片段。它来自 cifar 10.py。

# conv1
with tf.variable_scope('conv1') as scope:
kernel = _variable_with_weight_decay('weights', shape=[5, 5, 3, 64],
                                     stddev=1e-4, wd=0.0)
conv = tf.nn.conv2d(images, kernel, [1, 1, 1, 1], padding='SAME')
biases = _variable_on_cpu('biases', [64], tf.constant_initializer(0.0))
bias = tf.nn.bias_add(conv, biases)
conv1 = tf.nn.relu(bias, name=scope.name)
_activation_summary(conv1)

# pool1
pool1 = tf.nn.max_pool(conv1, ksize=[1, 3, 3, 1], strides=[1, 2, 2, 1],
                     padding='SAME', name='pool1')
# norm1
norm1 = tf.nn.lrn(pool1, 4, bias=1.0, alpha=0.001 / 9.0, beta=0.75,
                name='norm1')

tf.nn.lrn 方法有什么作用?我在 API 文档中找不到定义https://www.tensorflow.org/versions/r0.8/api_docs/python/index.html https://www.tensorflow.org/versions/r0.8/api_docs/python/index.html


tf.nn.lrn是一个缩写tf.nn.local_response_normalization。 因此,您可能需要查看的文档是:https://www.tensorflow.org/api_docs/python/tf/nn/local_response_normalization https://www.tensorflow.org/api_docs/python/tf/nn/local_response_normalization

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

tf.nn.lrn() 方法有什么作用? 的相关文章

随机推荐

  • ::after 伪元素出现在之前

    我试图在渐变的顶部和底部创建一个微妙的波浪 但是 after 伪元素出现在主要内容之前而不是之后 目前它显示为 before after 主要内容 但我希望它显示为 before 主要内容 after 这是我的代码 gradient bac
  • couchDB、python 和身份验证

    我已经安装了 couchDB v 0 10 0 并尝试通过从 couchDB wiki 下载的 Couch 类中的 python 与它对话 问题是 Create database mydb error unauthorized reason
  • 对“omp_get_max_threads_”的未定义引用

    我在尝试编译项目时遇到以下错误 fortran 使用 gfortran 对 omp get max threads 的未定义引用 对 omp get thread num 的未定义引用 问题是 我的 GCC 版本是 4 4 3 它应该支持
  • 运行 Julia .jl 文件

    我是朱莉娅的新手 刚刚完成了我的第一个程序 我在 julia studio 中编写了代码 并在该程序中对其进行了测试 它为我提供了所有正确的输出 但 shell 将输出分开 就好像它是两个不同的执行一样 我想知道这是否是我的编译器的问题 所
  • R ggplot2 对只有几个数据点的线图进行轻微平滑

    不确定这是否是一个编程问题 如果我有下面的数据 它会生成一个 尖峰 图表 并且我想使用 ggplot2 生成一个稍微平滑的图表 我该如何最优雅地处理它 通常的平滑方法去除了太多信息 我正在考虑的一种方法是在当前数据集之间插入额外的两个数据点
  • 使用空手道框架时,如何有选择地忽略构建中的某些 .feature 文件?

    我必须忽略使用空手道框架的集成测试套件的某些 feature 测试文件 有什么方法可以有选择地排除某些文件 是的 答案是tags https github com intuit karate test suites Example igno
  • 制作Asus google Nexus 7的模拟器

    我有 android sdk 更新到最新版本 v21 现在我想要的是 制作 Asus google Nexus 7 的模拟器 包含 800 x 1280 分辨率和 216 dpi 当我将 sdk 更新到最新版本时 我无法编辑模拟器当前的 d
  • JSP 自定义标记中的 i18n 翻译

    是否可以编写自定义 JSP 标记来获取 i18n 消息键并输出给定 请求的翻译短语 通常在 JSP JSTL 中 我这样做
  • Google Spell API 和 TinyMCE

    我刚刚使用说明成功实现了 TinyMCE 的拼写检查插件here http ondotnet deap nu 2009 01 implementing tinymce spellchecker with html 不过 我对这个结尾段落感到
  • 在泛型类中使用泛型协议

    我定义了一个协议LLNodeType protocol LLNodeType typealias T var firstNode LLNode
  • knitr 被 data.table `:=` 赋值欺骗

    看起来knitr不明白DT a 1 不应导致输出DT到文档 有办法阻止这种行为吗 Example knitr文档 Data Table Markdown Suppose we make a data table in R Markdown
  • 错误:无法扩展文件“pg_tblspc/4815857/PG_11_201809051/16321”:设备上没有剩余空间

    My postgres table occupied 100 memory并想截断它 当我使用时TRUNCATE TABLE TABLE NAME它给出的声明如下错误 错误 无法扩展文件 pg tblspc 4815857 PG 11 20
  • Laravel 上的用户名作为子域

    我已经设置了通配符子域 domain com 我正在使用以下 htaccess Options FollowSymLinks RewriteEngine On RewriteBase RewriteCond HTTP HOST www Re
  • 在 LibGDX 中将形状绘制为纹理

    我正在游戏中创建菜单 特别是带有圆角和边框的矩形 我可以使用形状渲染器来做到这一点 但我不能混合形状渲染器和精灵批处理器 目前我的分辨率似乎是使用大形状如 PNG 并缩放它们 但在很多设备上这会产生模糊的角落 我已经阅读了关于网格 着色器
  • 如何对具有多个数据源的 Spring Boot 应用程序进行 dockerize?

    我有一个 springboot 应用程序 它使用 postgresql 数据库和 mongoDB 数据库 我已经能够正确配置它们 但现在当我想对我的应用程序进行 dockerize 以便稍后将其部署到 Kubernetes 集群上时 我完全
  • glGetIntegerv 返回垃圾值

    include
  • 如何更改新组件的默认名称

    当您将组件添加到窗体时 Delphi 会设置组件的名称 第一个 TButton 将被命名为 Button1 第二个 Button2 依此类推 不久前我偶然发现你可以更改这个 前缀 继续使用 TButton 我将其更改为 btn 因此 TBu
  • Chromium 嵌入式框架绑定按键

    我看到了这个在Chromium Embedded Framework的官方论坛上 但似乎没有给出解决方案 说实话 我对C 平台不太适应 您能帮我提供一个将 CEF 绑定到 web 应用程序的代码片段吗 我想使用默认控件来控制应用程序 ALT
  • 如何在不让整个浏览器跳下来的情况下转到可滚动div中的锚标记?

    我正在为客户构建一个简单的词汇表小部件 作为更大项目的一部分 术语表的内容包含在可滚动的 div 中 overflow auto 每个字母都有一个与之关联的锚标记 a b c 等 可滚动 div 上方是一个包含字母表中每个字母的 div 单
  • tf.nn.lrn() 方法有什么作用?

    这是 cifar10 tutorial 中的代码片段 它来自 cifar 10 py conv1 with tf variable scope conv1 as scope kernel variable with weight decay