【实验技术笔记】细胞表型检测之细胞增殖(CCK-8法 + BrdU掺入法 + 平板克隆)

1. 细胞增殖的定义2. 检测细胞数量:CCK-8 法3. 检测细胞增殖:BrdU 掺入法4. 检测细胞增殖:平板克隆

安全设计原则

本篇主要分享一些安全设计原则的最佳实践,这些原则将成为一个坚实的起点。

Docker部署Minio (服务器上部署Minio)

使用Docker在服务器上快速部署Minio的参考教程

Eclipse中引入JUnit进行单元测试

Eclipse中引入JUnit进行单元测试

VSCode同步上传代码到Gitee

安装VSCode2、拥有Gitee仓库,本地拥有Gitee环境,例如下载Git Bash。

在Mac IntelliJ IDEA中配置Git

在Mac IntelliJ IDEA中配置Git

消息队列详解

文章目录1、什么是 MQ1、什么是 MQMQ 全称 Message Queue,也就是我们所说的消息队列。消息队列就是在消息的传输过程中保存消息的容器,多用于分布式系统之间进行通信。RabbitMQ是流行的消息队列服务软件,是开源的AMQP(高级消息队列协议)实现。支持多种客户端,如:Java、Py

mysql报错:1044 -Access denied for user ‘root‘@‘%‘ to database

在服务器的docker容器内,MySQL5.7版本中新建数据库报错:报错是因为root没有权限的原因,找到一下两种解决办法:查询用户表看root用户权限修改权限,命令如下:2.赋权mysql赋权操作,总结命令如下:两个方法都可以试试,我遇到这个问题时把两个方法用了一遍,中间忘记重启容器了,所以不知道

RabbitMQ启动失败

首先,你得先确认的你得Erlang的版本和RabbitMQ的版本是否能相互兼容,如果不能,请先下载对应的Erlang版本或者RabbitMQ版本。1.在Java中使用了RabbitMQ发现不停的尝试连接,却连不上的问题先在cmd下输入erl,看一下Erlang的环境变量配没有没有上图这个结果的,先配

实验篇(7.2) 16. 站对站安全隧道 - 通过聚合隧道走对方上网(FortiGate-IPsec) ❀ 远程访问

前面所有实验基本上是由向导来完成的,只有隧道聚合实验是手动设置的。那么远程访问经常用到的走对方宽带上网功能,需要怎样手动配置呢?

FISCO-BCOS 十四、使用Caliper进行压力测试fisco-bcos

修改完成后,进入~/benchmarks/node_modules/@hyperledger/caliper-fisco-bcos目录,编辑该目录下的package.json文件,在"dependencies"中添加一项"secp256k1": "^3.8.0",随后在该目录下执行npm i sec

element-ui文件上传下载组件+后台对应接口

不自动上传,附件选择后只将文件加入待上传列表,点击确认上传按钮后上传到后台服务器,已上传的文件通过表格的形式展示在上方表格中。具备上传、下载和删除功能。删除和上传权限可配置。

git添加成员并授权

提示:git添加成员并授予操作权限1.进入git仓库=》打开Settings=》Members2.输入要添加的用户和对应权限后点击Add

element ui - el-table给单元格添加点击事件

el-table中,点击版本号触发查看配置功能,但是产品想将热区扩大,从点击版本号扩大到点击整个单元格都可以查看。

cmd指令报错:npm ERR code EPERM npm ERRsyscall mkdir

cmd指令报错 npm ERR! code EPERMnpm ERR! syscall mkdir;方法一:在控制台上输出npm cache clean --force可以删除.npmrc文件。方法二:在 C:\Users\自己用户的文件夹\ 下找到 .npmrc 文件并删除。注意:这个文件可能是隐

vue3.0+element 表格获取每行数据

vue3 +element plus 表格获取单元行数据

使用Docker容器运行Mysql

随着虚拟化技术和云计算的普及,容器技术的优点也逐步体现,软件部署和环境迁移的优势无可替代。目前Docker已经成为容器技术中的主要代表,恰好涉及需要在liunux系统上部署Mysql数据库用于测试,由于是初次使用docker部署Mysql,所以对其中一些操作进行记录。以上就是我使用docker运行m

C#实现SM2签名(对接医保接口注意事项)

c# sm2签名

把k8s容器里的文件复制到本地

把k8s容器里的文件复制到本地

selenium + 异步爬取豆瓣阅读

selenium模拟采集url,返回的数据是一个列表,每20个url为一个元素,方便后面进行异步操作。注意:1.代码运行过程中如果停止那么信息会全部丢失,前功尽弃,可以通过修改循环次数来控制爬取量。这是包含书本链接url的负载 ,如果有大佬可以逆向出来,就可以不用selenium。2.还是会有封ip

个人信息

加入时间:2021-12-08

最后活动:几秒前

发帖数:145111

回复数:0